ChatGPT 存在很大的隐私问题
当 OpenAI 发布时 2020 年 7 月的 GPT-3,它提供了用于训练大
型语言模型的数据的一瞥。
根据一篇技术论文,从网络、帖子、书籍等中收集的数百万页被用于
创建生成文本系统。
在此数据中收集的是您在网上分享的一些关于您自己的个人信息,这
些数据现在让 OpenAI 陷入困境。
3 月 31 日,意大利数据监管机构 发布了一项临时紧急决定,要求
OpenAI 停止使用其训练数据中包含的数百万意大利人的个人信息。
根据监管机构的说法,OpenAI 没有合法权利在 ChatGPT 中使用人
们的个人信息。
作为回应,OpenAI 已阻止意大利人访问其聊天机器人,同时它向正
在进一步调查的官员提供答复。
这是西方监管机构首次针对 ChatGPT 采取的行动,凸显了围绕创建
巨大的生成式 AI 模型的隐私紧张,这些模型通常在大量互联网数据
上进行训练。
正如艺术家和媒体公司抱怨生成式 AI 开发人员未经许可使用他们的
作品一样,数据监管机构现在对人们的个人信息也是如此。
整个欧洲都可能做出类似的决定。在意大利宣布调查后的几天里,法
国、 德国和爱尔兰的数据监管机构已联系 Garante,要求提供有关
其调查结果的更多信息。