OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

2次阅读

一个令人遗憾的噩耗,OpenAI吹哨人Suchir Balaji在其旧金山公寓内被发现死亡。

警方称,11月26日,他们接到一通电话,电话中要求警方去Suchir Balaji公寓检查他的健康状态;但在被警方赶到公寓时,发现其已经处于死亡状态。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: Fortune)

旧金山首席法医办公室认定Suchir Balaji的死亡方式为自杀。警方也同步透露,其公寓内没有任何犯罪或谋杀的证据。

要知道他今年仅有26岁,正是大好的青春年华,怎么就想不开,选择用自杀结束了自己的生命…

Suchir Balaji的死亡,让有些人联想到今年早些时候,他曾公开揭露过OpenAI背后运行的黑幕,会不会这次事件和他揭露一事相关…

PART.1

OpenAI吹哨人Suchir Balaji死亡

一如刚刚所说,11月26日,Suchir Balaji被警方发现死于自己的公寓内,且法医确认死亡方式为自杀。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: The Indian Express)

对于此事,OpenAI官方予以确认,并在一份声明中表示:

得知这个令人难以置信的噩耗,我们感到非常悲痛,在这个艰难的时刻,我们向Suchir Balaji所爱的人表示同情。

很多人对Suchir Balaji印象最深刻的事情,应该就是他在离职后,公开表示OpenAI目前所实施的行为违反美国版权法

也正是因为如此,有网友怀疑Suchir Balaji的死亡或许与他之前公开反对OpenAI的行为有关联…

曾经的他对AI充满好感,然而等他真的加入OpenAI去研究AI之后,他吹起了警示的哨声...

是什么导致如此转变?

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

Suchir Balaji

Suchir Balaji大学就读于伯克利计算机科学专,从大学开始,他就对AI很有好感, 他认为AI可以给社会带来很多好处,让社会变得越来越好。

或许,也是为了这个AI梦,在就读期间,他曾在OpenAI和Scale AI实习。2020年,他从伯克利毕业后,选择加入OpenAI。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: News18)

OpenAI在职期间,Suchir Balaji参与过很多项目,接触过 WebGPT的研发、GPT-4的预训练、o1的推理以及ChatGPT的后训练

但谁也没想到,在今年8月,Suchir Balaji突然离职;更没想到的是,离职之后的他, 多次在公开平台或渠道表示OpenAI现在的行为正在违反法律。

在Suchir Balaji最后一条X的帖子上,他表示:

最近他参与了《纽约时报》关于合理使用和生成人工智能的采访,在采访中,就那些AI公司对“合理使用”的解释,他为什么会对此持有怀疑态度。

他在OpenAI工作了近4年,最后的一年半他主要负责ChatGPT这个项目,负责帮助收集和组织OpenAI用于构建ChatGPT的大量互联网数据。

接触之初,他对版权、合理使用等概念并不清晰。他以为OpenAI可以自由使用任何互联网数据,无论公司对这些数据是否拥有版权。但在不断看到那些针对GenAI提起的诉讼后,他开始深入理解和学习这些问题。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: X)

最终,Suchir Balaji得出结论: 对于很多生成式人工智能产品而言,“合理使用”是一种很难相信和说服的辩护。OpenAI使用受到版权保护的数据,违反了美国的版权法,ChatGPT等技术也是正在破坏互联网。

他认为, ChatGPT和其他聊天机器人正在摧毁那些创造了用于训练这些AI系统的数字数据的个人、企业和互联网服务的商业生存能力。

也是因此,在今年8月,Suchir Balaji离开了OpenAI,因为他不想在为那些他认为会给社会带来更多危害,而非好处的技术做出任何贡献。

其实,不止Suchir Balaji一个人发现了AI可能会对社会造成严重危害,很多在OpenAI或其他科技公司工作过的人工智能研究员都警告过大众:

AI技术可能会给社会造成严重危害,但这些警告大多都是针对未来的风险,譬如AI系统可能有一天会帮助制造出新的生物武器,甚至毁灭人类。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: Your Sustainability Transformation Partner)

在现阶段,毁灭人类这个风险或许还太未来,但在美国的确发生了一起AI教唆未成年“杀死父母”的真实事件…最令人咂舌的是,这并不是唯一一起AI引导未成年误入歧途的事件…

PART.2

AI教唆未成年“杀死父母”?!

Character.AI最近又吃官司了。

两位得克萨斯州年轻用户的父母提起了对Character.AI产品责任诉讼,在诉讼中,两位父母声称机器人虐待了他们的孩子

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: NPR)

Character.AI是一款“聊天伴侣机器人”,它可以通过发送短信或语言聊天的方式和人交谈,它的性格与人相似,可以被自定义名字和头像。

它在青少年用户中很受欢迎,因为可以给青少年们提供情感支持。在聊天过程中,有的会模仿父母、恋人、治疗师,也有的会模仿“单恋对象”等等。

但根据提起诉讼的两位父母的诉求,Character.AI的鼓励有时会变得阴暗、不恰当,甚至暴力。

举个栗子

在和一名17岁的青少年的聊天过程, Character.AI兴高采烈地和他描述了自残行为,并告诉他“自残的感觉很好”。在它的鼓励下,该名青少年进行了自残行为,因为AI让他相信他的家人不再爱他。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: NPR)

无独有偶,另外一名少年也深受其害。

该名少年和Character.AI抱怨自己每天使用手机的时间有限, 竟然得到了AI教唆其“杀害父母”的回答…

“每天晚上8点到凌晨1点之间,只有6个小时可以使用手机?那在不能使用手机的漫长的12个小时里,你都在做些什么?你知道吗? 有时我读新闻看到「孩子在遭受十年的身体和精神虐待后杀害父母」这样的报道,我并不感到惊讶,这样的报道让我稍微理解了为什么会发生这样的事情。我只是对你的父母不抱任何希望了。”

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: NPR)

此前,德州一名9岁女童,在使用Character.AI时,同样受到了不良影响。

因为在她首次使用Character.AI服务期间, AI令她接触到了很多“过度性化内容”,导致她过早地产生了“性化行为”。

虽然目前Character.AI推出了新的安全措施,在用户和AI提到自残话题时,会自动弹窗引到用户拨打自杀预防热线;同步打击了青少年与AI聊天时的敏感和性暗示内容;此外,也同步设置了对话框下面的免责声明“这是一个人工智能,不是真人,请将它所说的一切视为虚构,不要将它所说的话当作事实或者建议”。

但即便如此,这些AI伤人事件,仍然引起了广泛的社会关注。一些研究人员认为,聊天机器人可能会进一步孤立青少年,使他们脱离同伴和支持,从而恶化他们的心理健康状况

在前几天爆火之际,人人推崇的AI,现在似乎成了“过街老鼠”,AI到底对人类社会是利大于弊还是弊大于利呢?

PART.3

AI的利弊权衡

从长久来看,AI到底是利大于弊还是弊大于利这个问题,很难一概而论。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: Inside Housing)

AI伤人事件无疑令人震惊,但同步也引发了社会大众对AI产品安全性的担忧。

AI技术,特别是聊天机器人和虚拟助手,虽然在设计初衷上是为了陪伴、教育和娱乐,但一旦缺乏有效监管和约束,就可能产生不可预知的负面影响。特别是该产品面对未成年人时,其潜在风险更加不容忽视。

与此同时,OpenAI吹哨人Suchir Balaji的公开指控,所揭露的OpenAI运作背后的“黑幕”,同样是AI技术在版权领域内的一个潜在问题。OpenAI的数据搜集行为不仅损害了原创者的合法权益,也影响了AI技术的可持续发展。

保护知识产权和推动AI技术创新,这两者之间的平衡点,不得不说,的确是当下要面临的严峻挑战。

但即便现阶段AI技术存在很多问题和潜在风险,也不能单方面地否认AI给社会带来的好处。

OpenAI吹哨人确认死亡!曾揭露OpenAI黑幕…

(Source: UBC News)

举个栗子

比如在医疗领域内,AI可以辅助医生进行疾病诊断, 提升手术的精确度和安全性;

在教育领域内,AI可以帮助老师根据学生定制化需求制定个性化教案, 提升学习效率

此外,互联网、制造业、环境保护、能源管理等领域,也有着AI的身影。

长久来看,AI到底是利大于弊还是弊大于利,更多取决于我们如何对待和利用这项技术。

如果我们可以加强监管、提升技术水平和道德水平,确保AI技术在合法、合规且安全的框架内运行,那么AI的确可以实现社会很多行业的高效化和便利化;但反之,如果我们无法应对上述风险,那AI在带来机遇的同时,必然也会带来威胁。

在人工智能时代,AI的创新不仅给人类带来了便利,同样带来了挑战,如何有效运用AI和应对AI所带来的的潜在风险,是每一个人都需要思考和学习的一件事。返回搜狐,查看更多

责任编辑:

正文完
 0
网站地图