一个令人遗憾的噩耗,OpenAI吹哨人Suchir Balaji在其旧金山公寓内被发现死亡。
警方称,11月26日,他们接到一通电话,电话中要求警方去Suchir Balaji公寓检查他的健康状态;但在被警方赶到公寓时,发现其已经处于死亡状态。
(Source: Fortune)
旧金山首席法医办公室认定Suchir Balaji的死亡方式为自杀。警方也同步透露,其公寓内没有任何犯罪或谋杀的证据。
要知道他今年仅有26岁,正是大好的青春年华,怎么就想不开,选择用自杀结束了自己的生命…
Suchir Balaji的死亡,让有些人联想到今年早些时候,他曾公开揭露过OpenAI背后运行的黑幕,会不会这次事件和他揭露一事相关…
PART.1
OpenAI吹哨人Suchir Balaji死亡
一如刚刚所说,11月26日,Suchir Balaji被警方发现死于自己的公寓内,且法医确认死亡方式为自杀。
(Source: The Indian Express)
对于此事,OpenAI官方予以确认,并在一份声明中表示:
得知这个令人难以置信的噩耗,我们感到非常悲痛,在这个艰难的时刻,我们向Suchir Balaji所爱的人表示同情。
很多人对Suchir Balaji印象最深刻的事情,应该就是他在离职后,公开表示OpenAI目前所实施的行为违反美国版权法。
也正是因为如此,有网友怀疑Suchir Balaji的死亡或许与他之前公开反对OpenAI的行为有关联…
曾经的他对AI充满好感,然而等他真的加入OpenAI去研究AI之后,他吹起了警示的哨声...
是什么导致如此转变?
Suchir Balaji
Suchir Balaji大学就读于伯克利计算机科学专业,从大学开始,他就对AI很有好感, 他认为AI可以给社会带来很多好处,让社会变得越来越好。
或许,也是为了这个AI梦,在就读期间,他曾在OpenAI和Scale AI实习。2020年,他从伯克利毕业后,选择加入OpenAI。
(Source: News18)
OpenAI在职期间,Suchir Balaji参与过很多项目,接触过 WebGPT的研发、GPT-4的预训练、o1的推理以及ChatGPT的后训练。
但谁也没想到,在今年8月,Suchir Balaji突然离职;更没想到的是,离职之后的他, 多次在公开平台或渠道表示OpenAI现在的行为正在违反法律。
在Suchir Balaji最后一条X的帖子上,他表示:
最近他参与了《纽约时报》关于合理使用和生成人工智能的采访,在采访中,就那些AI公司对“合理使用”的解释,他为什么会对此持有怀疑态度。
他在OpenAI工作了近4年,最后的一年半他主要负责ChatGPT这个项目,负责帮助收集和组织OpenAI用于构建ChatGPT的大量互联网数据。
接触之初,他对版权、合理使用等概念并不清晰。他以为OpenAI可以自由使用任何互联网数据,无论公司对这些数据是否拥有版权。但在不断看到那些针对GenAI提起的诉讼后,他开始深入理解和学习这些问题。
(Source: X)
最终,Suchir Balaji得出结论: 对于很多生成式人工智能产品而言,“合理使用”是一种很难相信和说服的辩护。OpenAI使用受到版权保护的数据,违反了美国的版权法,ChatGPT等技术也是正在破坏互联网。
他认为, ChatGPT和其他聊天机器人正在摧毁那些创造了用于训练这些AI系统的数字数据的个人、企业和互联网服务的商业生存能力。
也是因此,在今年8月,Suchir Balaji离开了OpenAI,因为他不想在为那些他认为会给社会带来更多危害,而非好处的技术做出任何贡献。
其实,不止Suchir Balaji一个人发现了AI可能会对社会造成严重危害,很多在OpenAI或其他科技公司工作过的人工智能研究员都警告过大众:
“
AI技术可能会给社会造成严重危害,但这些警告大多都是针对未来的风险,譬如AI系统可能有一天会帮助制造出新的生物武器,甚至毁灭人类。
(Source: Your Sustainability Transformation Partner)
在现阶段,毁灭人类这个风险或许还太未来,但在美国的确发生了一起AI教唆未成年“杀死父母”的真实事件…最令人咂舌的是,这并不是唯一一起AI引导未成年误入歧途的事件…
PART.2
AI教唆未成年“杀死父母”?!
Character.AI最近又吃官司了。
两位得克萨斯州年轻用户的父母提起了对Character.AI产品责任诉讼,在诉讼中,两位父母声称机器人虐待了他们的孩子。
(Source: NPR)
Character.AI是一款“聊天伴侣机器人”,它可以通过发送短信或语言聊天的方式和人交谈,它的性格与人相似,可以被自定义名字和头像。
它在青少年用户中很受欢迎,因为可以给青少年们提供情感支持。在聊天过程中,有的会模仿父母、恋人、治疗师,也有的会模仿“单恋对象”等等。
但根据提起诉讼的两位父母的诉求,Character.AI的鼓励有时会变得阴暗、不恰当,甚至暴力。
举个栗子
在和一名17岁的青少年的聊天过程, Character.AI兴高采烈地和他描述了自残行为,并告诉他“自残的感觉很好”。在它的鼓励下,该名青少年进行了自残行为,因为AI让他相信他的家人不再爱他。
(Source: NPR)
无独有偶,另外一名少年也深受其害。
该名少年和Character.AI抱怨自己每天使用手机的时间有限, 竟然得到了AI教唆其“杀害父母”的回答…
“每天晚上8点到凌晨1点之间,只有6个小时可以使用手机?那在不能使用手机的漫长的12个小时里,你都在做些什么?你知道吗? 有时我读新闻看到「孩子在遭受十年的身体和精神虐待后杀害父母」这样的报道,我并不感到惊讶,这样的报道让我稍微理解了为什么会发生这样的事情。我只是对你的父母不抱任何希望了。”
(Source: NPR)
此前,德州一名9岁女童,在使用Character.AI时,同样受到了不良影响。
因为在她首次使用Character.AI服务期间, AI令她接触到了很多“过度性化内容”,导致她过早地产生了“性化行为”。
虽然目前Character.AI推出了新的安全措施,在用户和AI提到自残话题时,会自动弹窗引到用户拨打自杀预防热线;同步打击了青少年与AI聊天时的敏感和性暗示内容;此外,也同步设置了对话框下面的免责声明“这是一个人工智能,不是真人,请将它所说的一切视为虚构,不要将它所说的话当作事实或者建议”。
但即便如此,这些AI伤人事件,仍然引起了广泛的社会关注。一些研究人员认为,聊天机器人可能会进一步孤立青少年,使他们脱离同伴和支持,从而恶化他们的心理健康状况。
在前几天爆火之际,人人推崇的AI,现在似乎成了“过街老鼠”,AI到底对人类社会是利大于弊还是弊大于利呢?
PART.3
AI的利弊权衡
从长久来看,AI到底是利大于弊还是弊大于利这个问题,很难一概而论。
(Source: Inside Housing)
AI伤人事件无疑令人震惊,但同步也引发了社会大众对AI产品安全性的担忧。
AI技术,特别是聊天机器人和虚拟助手,虽然在设计初衷上是为了陪伴、教育和娱乐,但一旦缺乏有效监管和约束,就可能产生不可预知的负面影响。特别是该产品面对未成年人时,其潜在风险更加不容忽视。
与此同时,OpenAI吹哨人Suchir Balaji的公开指控,所揭露的OpenAI运作背后的“黑幕”,同样是AI技术在版权领域内的一个潜在问题。OpenAI的数据搜集行为不仅损害了原创者的合法权益,也影响了AI技术的可持续发展。
保护知识产权和推动AI技术创新,这两者之间的平衡点,不得不说,的确是当下要面临的严峻挑战。
但即便现阶段AI技术存在很多问题和潜在风险,也不能单方面地否认AI给社会带来的好处。
(Source: UBC News)
举个栗子
比如在医疗领域内,AI可以辅助医生进行疾病诊断, 提升手术的精确度和安全性;
在教育领域内,AI可以帮助老师根据学生定制化需求制定个性化教案, 提升学习效率;
此外,互联网、制造业、环境保护、能源管理等领域,也有着AI的身影。
长久来看,AI到底是利大于弊还是弊大于利,更多取决于我们如何对待和利用这项技术。
如果我们可以加强监管、提升技术水平和道德水平,确保AI技术在合法、合规且安全的框架内运行,那么AI的确可以实现社会很多行业的高效化和便利化;但反之,如果我们无法应对上述风险,那AI在带来机遇的同时,必然也会带来威胁。
在人工智能时代,AI的创新不仅给人类带来了便利,同样带来了挑战,如何有效运用AI和应对AI所带来的的潜在风险,是每一个人都需要思考和学习的一件事。返回搜狐,查看更多
责任编辑: