【围攻ChatGPT】:AI狂飙突进,我们该注意哪些风险?

ChatGPT自推出以来,发展迅猛,不仅激发了人工智能研发热潮,更是掀起了关于人工智能伦理与风险的讨论。先是马斯克等人签署联名公开信叫停大型AI研究,再有外媒报道称,自意大利于3月31日封禁ChatGPT后,德国数据保护专员称,出于数据安全考虑,可能将效仿意大利的做法。法国和爱尔兰的隐私监管机构也表示,正与意大利数据监管机构探讨禁令依据。不少人工智能相关从业者甚至支持人工智能“末日论”,但有评论认为应警惕技术讨论背后隐藏的目的。

往期专题 >>
246
  • 文章11
  • 快讯13
  • 评论0

欧盟寻求年内就 ChatGPT 等生成式 AI 监管规则达成一致

04-25 01:39来源:财联社

据财联社报道,欧盟委员会执行副主席兼竞争专员玛格丽特・维斯塔格(Margrethe Vestager)4 月 24 日接受采访表示,欧盟希望最快今年就 ChatGPT 等生成式 AI 的监管规则达成一致,“越快越好”。维斯塔格称,欧盟拟要求提供生成式 AI 服务的公司解释其做出相关决定的原因和道德标准。此外,维斯塔格提出给 AI 生成的文本等内容附上“AI 制造”标签的想法。

原文链接

分享至

美国商业软件联盟呼吁该国为 AI 监管立法

04-25 01:10来源:CNBC

据 CNBC 报道,当地时间周一,商业软件联盟(Business Software Alliance,简称 BSA)发布文件,倡导美国在隐私立法中制定管理人工智能使用规则。BSA 由微软提供部分支持,其成员还包括 Adobe、IBM 和甲骨文等科技公司。BSA 呼吁采取四项关键措施:(1)国会应明确要求公司何时必须评估人工智能的设计或影响;(2)当人工智能被用于做出重大决定时,这些要求应该生效;(3)国会应指定一个现有联邦机构,审查公司是否遵守规则;(4)国会应要求公司为高风险人工智能制定风险管理计划。

原文链接

分享至

国家网信办发布关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知

04-11 05:33来源:网信办

巴比特讯,4 月 11 日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知。征求意见稿拟规定,利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。

提供生成式人工智能产品或服务应当尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。


原文链接

分享至

中国支付清算协会向行业发出倡议:从业人员谨慎使用 ChatGPT 等工具

04-10 07:07来源:财联社

据财联社 4 月 10 日报道,中国支付清算协会向行业发出倡议。其中提出,支付行业从业人员要遵守所在地区的网络使用规定,正确认识 ChatGPT 等工具的机遇和风险,全面评估使用 ChatGPT 等工具处理工作内容的风险,依法合规使用 ChatGPT 等工具。支付行业从业人员在使用 ChatGPT 等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

原文链接

分享至

OpenAI:愿与意大利监管机构合作加强用户数据保护和使用

04-06 10:34来源:澎湃新闻

据澎湃新闻报道,OpenAI 在与意大利监管机构的会议中,承诺提高个人数据使用的透明度。

OpenAI 表示,相信公司符合个人数据保护法律,但也愿意与该机构进行合作。除了加强个人数据使用的透明度,OpenAI 还将增强数据主体权利行使机制以及对儿童的保护措施。

原文链接

分享至

意大利数据保护当局:ChatGPT 承诺加强个人数据使用的透明度,无意对人工智能和技术创新踩刹车

04-06 08:15来源:金十

据金十消息,意大利数据保护当局表示,ChatGPT 承诺加强个人数据使用的透明度,我们无意对人工智能和技术创新踩刹车。

此前报道,意大利隐私监管机构将与 OpenAI 代表会面,讨论 ChatGPT 禁令。

原文链接

分享至

澳大利亚赫本市市长准备就 ChatGPT 错误内容提起诽谤诉讼

04-05 11:30来源:路透社

据路透社报道,澳大利亚赫本市市长 Brian Hood 表示,如果 OpenAI 不纠正 ChatGPT 关于他曾因受贿而入狱的错误说法,他可能会起诉 OpenAI,这将是针对自动文本服务的第一起诽谤诉讼。

据悉,Brian Hood 于去年 11 月当选为赫本市市长,当公众告诉他 ChatGPT 在 21 世纪初涉及澳大利亚储备银行一家子公司的外国贿赂丑闻中谎称他为有罪方时,他开始担心自己的声誉。代表律师说,Hood 确实为子公司 Note Printing Australia 工作,但他是向当局举报向外国官员行贿以赢得货币印刷合同的人,并且从未被指控犯罪。律师说,他们于 3 月 21 日向 ChatGPT 的所有者 OpenAI 发出了一封关注信,该信给了 OpenAI 28 天的时间来修正有关其客户的错误,否则可能面临诽谤诉讼。

目前 OpenAI 尚未作出回应。

原文链接

分享至

意大利隐私监管机构将与 OpenAI 代表会面,讨论 ChatGPT 禁令

04-05 06:31来源:金十

据金十报道,根据 4 月 4 日发布的一份声明,意大利隐私监管机构将于当地时间周三与 OpenAI 代表会面,讨论在该国暂时禁止使用 ChatGPT 的问题。OpenAI 表示,该公司愿意同意大利当局合作,以确保遵守隐私法规。意大利数据保护局在上月底对 ChatGPT 涉嫌违反隐私规则展开调查。

该机构认为,3 月 20 日 ChatGPT 平台出现了用户对话数据和付款服务支付信息丢失情况。此外平台没有就收集处理用户信息予以告知,缺乏大量收集和存储个人信息的法律依据。

原文链接

分享至

马斯克用一图片对反对人工智能安全性的论据作总结

04-05 00:34来源:金十

4 月 5 日,马斯克用一图片对反对人工智能安全性的论据作总结(走铁路侧线不够直接会放缓进度,但走直线会伤害到人)。


原文链接

分享至

意大利:即日起禁止使用 ChatGPT 并限制 OpenAI 处理意大利用户信息

03-31 11:25来源:财联社

据财联社报道,意大利数据保护机构对 OpenAI 公司非法收集用户信息展开调查。意大利个人数据保护局今日宣布,即日起禁止使用聊天机器人 ChatGPT,并限制开发这一平台的美国人工智能公司 OpenAI 处理意大利用户信息。

意大利个人数据保护局还指出,3月 20 日,ChatGPT 平台出现了“用户对话数据和付款服务支付信息丢失”的情况。该平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。OpenAI 公司“必须在 20 天内通过其在欧洲的代表向意大利个人数据保护局通报公司执行保护局要求而采取的措施”,否则将被处以最高 2 千万欧元或公司全球年营业额 4% 的罚款。

原文链接

分享至

意大利隐私监管机构就 ChatGPT 对 OpenAI 展开调查

03-31 09:43来源:金十

据金十报道,意大利隐私监管机构就 ChatGPT 对 OpenAI 展开调查。

原文链接

分享至

周鸿祎谈马斯克呼吁暂停 GPT-5 的研发:不发展才是最大的不安全

03-30 09:03来源:澎湃新闻

据澎湃新闻报道,3 月 30 日,360 集团创始人、董事长周鸿祎在微博发文称,“昨天马斯克呼吁暂停 GPT-5 的研发。我自己是做安全的,但我坚定地认为,不发展才是最大的不安全。​​​”

此前报道,吴恩达等 AI 大牛反对“千人联名要求暂停巨型 AI 实验”:AI 训练不能停

原文链接

分享至

马斯克等千名专家签署联名信,呼吁暂停训练比 GPT-4 更强大的人工智能

03-29 03:29来源:Future Of Life

巴比特讯,根据 Future Of Life 网站信息,Tesla 首席执行官 Elon Musk、苹果联合创始人 Steve Wozniak、图灵奖得主 Yoshua Bengio 等千名科技界专家及行业高管近日联合签署了一份关于“暂停巨型人工智能实验”的公开信,呼吁暂停训练比 GPT-4 更强大的人工智能系统至少 6 个月的时间,理由是这种系统对社会和人类构成潜在风险。

公开信指出,现代 AI 系统正逐渐在通用任务上实现与人类竞争的水平,只有当人类确信 AI 系统的影响是积极的,风险是可控的时候,才应该开发强大的 AI 系统。

此外,AI 实验室和独立专家应该利用这个暂停期共同制定和实施一套共享的 AI 设计和开发安全协议,这些协议应由独立的外部专家严格审核和监督,应确保遵守它们的系统在合理怀疑范围之外是安全的。这并不意味着暂停整个 AI 领域的发展,而仅仅是从危险的竞赛中退一步,避免研究更大、更难以预测、具有突现性能力的黑箱模型。



原文链接

分享至
登录 账号发表你的看法,还没有账号?立即免费 注册