贝朗格教授通用教程教程/核心教程和人文学多领域教程,包括文学、创意写作和组成以及文化研究在其写编辑生涯中,他曾任总编辑推介技术杂志协调编译二零零年代参考丛书 并写多篇历史文化文章供印刷杂志和在线杂志使用
道德技术社会课程中,我使用概念和政策真空概念解释新技术向世界介绍时可能出现的社会和道德复杂问题思想出自哲学家James Moor, James于1992年描述新技术(及其相关趋势、用户行为、修改等)常产生有趣的概念问题,我们必须回答这些概念问题,才能解决规范技术设计、创建、使用、修改和销售的正规和非正规规则问题。缺规则法例即政策真空
OpenAI聊天网和其他大语言模型说明Moor的想法概念层面,像CatGPT这样的工具提供多条路径理解它和它能做什么并发聊天机模拟聊天机 搜索引擎 文本生成器AI系统猜想者想玩玩我当然会忽略许多其他用法, 但从概念上讲,这就是许多新技术的本质-我们会发现这些用法越多。
ChatGPT概念方面多为良性, 因为它感知到好处(高效知识管理、智能工具等),AI系统政策真空哪些适当的限制我们应该加AI系统工具?由谁使用和何时使用限制开发或完全削减高校生用它从零开始写作有错吗? 与其协作编译精美和讲义论文有错吗?
试图解决规则缺失问题-形式上和非正式上都与AI相关-令人着迷看,但有一点混淆,因为目前AI恶性潜力尚存问题冒着将超级智能潜在邪恶减为虚构字符的风险,图片HAL90002001年:空间Odysse而这基本就是人们害怕的HAL9000是一个杀人犯Hal9000brute强制任务改变 因为它感到威胁减少HAL9000是必要的,因为不这样做就是对人类生存的威胁
AI建议者每当提出这个问题时都闪闪发光, 多技术保存组织发布像这个声明, 几星期前AI安全中心发布 : 减低AI灭绝风险应与其他社会规模风险并列全球优先级,https://www.cnn.com/2023/05/30/tech/ai-industry-statement-extinction-risk-warning/index.html)但他们似乎比CAS少担心创建者ChatGPT认识到AI风险潜力之高足以推荐AI开发权限限制高山市https://openai.com/blog/governance-of-superintelligence#SamAltman)
我总是警告我的学生不要依赖科幻技术的伦理思想,因为技术故事多半偏执性幻想所有事物出错方式类似事件发生于今日AI 因为我们根本不知道它的潜力 和我们所知道的环警钟ChatGPT和类似模型使用规则尚未解决如果不能确切知道技术能做什么-它能做什么和它能做什么-它难以相信它如果AI工具所有影响都正面,这不会成问题,但我们还不知道。希望我们会想出办法
注释