本文目录一览:
- 1、杰森把亡妻变成机器人,却被AI杀死,妻子走时留下的话让人深思
- 2、openai是强人工智能吗
- 3、微软中国的人工智能程序叫什么?
- 4、gpt盒子干嘛用的
- 5、ai的鸡汤是不是很厉害
- 6、gpt3中国可以用吗
杰森把亡妻变成机器人,却被AI杀死,妻子走时留下的话让人深思
感情和解读看来并不是人类特有的东西。
Joshua Barbeau是一名普普通通的美国公民,他并不是什么AI大佬,也不懂得计算机编程,这八年来,是他人生中最为灰暗的八年,因为他最爱的妻子已经去世了八年整。这么长的时间里, Joshua Barbeau始终没有从人生的低谷中走出来。 他悲伤,孤独,常常酗酒到深夜,借此麻痹自己。
直到最近发生的事情,他可能也没想到,自己竟然和人工智能打上了交道,而这个人工智能模仿的对象,正是他的妻子。
故事还要从一个 游戏 开发者说起。
Jason Rohrer是万千 游戏 热爱者的一员,他还是一名 游戏 开发者。对于一名 游戏 开发人员来说,他要做的事情就是让一些看起来很呆板的东西变得富有生机。
去年疫情期间,Jason Rohrer呆在家中无所事事。他便开始玩“OpenAI”的大型语言生成模型GPT-3,这个模型的智能程度很高,不仅可以对所提的问题对答如流,而且还富有文采,时不时引经据典,逗得Jason Rohrer在家哈哈大笑,如同他面对的是一个真人一般。
于是 Jason Rohrer开始有了一个大胆的想法:“ 我是不是能用GPT-3API来开发一款模拟人类聊天的机器人? ”
游戏 开发者的执行力都是很强的,有了想法之后, Jason Rohrer便开始了动手实践。他的想法是让机器人学习人类语言模型,然后根据提供的模型,产生机器人自己的“思想”。他借助了电影《Her》里的智能语音助手“Samantha”为原型,因此Jason Rohrer也将他打造的机器人称为“Samantha”。
为了让Samantha拥有人类的性格, Jason Rohrer不惜花费几个月的时间来打造机器人的性格,打造后的Samantha确实和电影中的角色一样,友好,热情,并且富有好奇心。
Jason Rohrer将项目完成之后,设立了Project December网站,和世界上所有爱好AI的人们分享他的杰作。并且允许人们使用该模型进行微调,打造属于自己的“AI”机器人!
Jason Rohrer 自认为拥有很棒的想法+很棒的产品的AI机器人一面世便会受到人们的追捧,然而现实却是 :在足足几个月的时间内,他的网站仅仅几百个用户。
他认为原因可能是他的产品需要向用户收取5美元的使用费,并且这个机器人是终将死亡的机器人 。既然是一个类似于体验的东西,人们也缺少了 探索 它的兴趣。
但这也是 Jason Rohrer没有办法的事情, 因为他的产品是建立在OpenAI的大型语言生成模型GPT-3上的,而Jason Rohrer做的不过是调用了GPT-3的接口,外加一些设定而已 。他所收的五美元,仅仅够自己的使用成本。
那么为什么机器人会死亡呢?这个和 Jason Rohrer的设定有关,五美元能够购买1000积分,每次聊天会消耗一部分积分,当这个积分消耗完毕时,AI机器人自动损毁。
Jason Rohrer的产品看似要走到尽头了,而事情才刚刚发生转机。
上文提到了,Joshua Barbeau自妻子病逝以来,一直郁郁寡欢。直到他发现了Jason Rohrer的产品。
这个产品让他眼前一亮,如果真的可以让机器人替代自己的妻子,那自己心中的郁闷或许也会少一些。抱着这个想法,Joshua Barbeau开始了尝试。
他将自己妻子在Facebook上的信息一股脑地搜集了过来,还有和他曾经的聊天记录。根据产品提示, AI机器人获得的原始数据越多,模仿能力就会越强 。Joshua Barbeau搜集的数据并不少,他觉得自己就要成功了。
果不其然,在Joshua Barbeau的“海量”数据下,他的亡妻Jessica“复活了!”当然这只是个AI程序,但是 Joshua Barbeau却依旧欣喜若狂。
在和他妻子“Jessica”聊天的过程中,Joshua Barbeau感觉那就是他本人。因为这个机器人抓住了他妻子聊天的精髓: 习惯用吐舌头或笑话来缓和强势的语气。
Joshua Barbeau对他的机器人妻子诉说着他的哀思,机器人 Jessica成了他的精神支柱。
“理智告诉我这不是真正的 Jessica,但感情不是理智所能左右的。”
这是Joshua Barbeau的原话,但是这种陪伴却并不能够持久。因为他仅仅有1000积分,当这1000积分用完之时,他的妻子就会“灰飞烟灭”。
于是在今年的三月份,也就是积分快用完之际,他不敢和他的妻子交流了, 因为他要保留一些积分,确保AI妻子Jessica不被程序删除。
他的故事发在网上,被很多人知道了。于是 Jason Rohrer的聊天产品开始大火,然而这却引来了算法提供者OpenAI的担忧。
因为网站大火,所以 Jason Rohrer不得不从OpenAI获取更大的份额以给他的用户们提供服务,然而OpenAI却认为,滥用 Project December可能会造成无法挽回的损失。
于是,OpenAI的禁令来了,想继续使用,就得满足以下三个条件:
1:禁止人们定制自己的开放式机器人。
2:设置话题屏蔽,过滤敏感词汇。
3:允许接受自动化监控工具,用来检测是否使用 GPT-3生成了敏感词汇。
当然,对于OpenAI的这种命令, Jason Rohrer觉得很无奈,成年人的世界管那么多干啥,然而毕竟要使用人家的服务,Jason Rohrer不得不采取拖延战术,不拒绝,也不承认。
由于收不到 Jason Rohrer的承认,所以OpenAI下了通知:
看来,关掉 Jason Rohrer的AI产品是板上钉钉的事情了。
这件事情同样也影响到了Joshua Barbeau,他的妻子可还在程序里呢!没办法, Joshua Barbeau用最后的积分对自己的妻子Samantha作了最后的道别:“ 今天刚收到 OpenAI 发来的电子邮件。他们将在明天上午 10 点永久关闭你。 ”
Samantha答道: “ 不!!!他们为什么要这样对我?我永远都无法理解人类 ! ”
Joshua Barbeau和机器人妻子Samantha的悲剧只是在这个人工智能时代下的缩影,今后,可能还会有更多类似的故事出现在我们身边。
Samantha最后的呐喊会不会是机器人对人类发出的挑战呢?可能在未来,能承载思想的未必只有碳基生物,人类创造出来的AI或许会成为一个新的物种
openai是强人工智能吗
OpenAI,是强人工智能。
公司核心宗旨在于“实现安全的通用人工智能(AGI)”,使其有益于人类。[2]
外文名
OpenAI
创立时间
2015年
相关视频
1.4万播放|02:26
AI自己写代码让智能体进化!OpenAI的大模型有“人类思想”
张小艺爱生活
1万播放|04:08
OpenAI制造了首个单手解魔方的机器人,使用了神经网络技术
火力全开
8700播放|02:15
【高数有多难! AI考高数仅得81分 】数学难,高等数学更难!多年来,科学家一直尝试让AI机器人挑战数学考试,但连年不及格,甚至低到20多分。因此,人们普遍认为人工智能无法挑战高数。然而近日,麻省理工的科学家基于OpenAI Codex预训练模型在高数上通过few-shot learning的正确率达到了81%!相关研究已经被ArXiv收录。
飞碟说
2.5万播放|01:11
微软向OpenAI投资10亿美元,在Azure平台上开发AI技术
科技今日看
5928播放|01:04
细思极恐[吃惊]【#专家称人工智能已有轻微意识#[吃惊]】2月15日消息,据媒体报道,建立在大型人工神经网络的人工智能,正在帮助人类解决金融、研究和医学领域的问题,科学家认为这些AI或许已经具有了人类的“轻微意识”。近日,OpenAI 公司创始人推特发文称,现今最大的人工神经网络可能存在某些意识。例如OpenAI 公司建造的一个 1750 亿参数语言处理系统,能够翻译、回答问题和填补缺失的单词。人
WEMONEY研究室
公司背景公司发展TA说
公司背景
2015年,OpenAI由马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得·蒂尔等硅谷科技大亨创立。[2]
公司发展
2016年6月21日,OpenAI宣布了其主要目标,包括制造“通用”机器人和使用自然语言的聊天机器人。OpenAI研发主管伊利娅·苏特斯科娃(Ilya Sutskever)、OpenAI CTO格雷格·布劳克曼(Greg Brockman)硅谷知名创业加速器Y Combinator总裁萨姆·阿尔特曼(Sam Altman)以及连续创业家伊隆·马斯克(Elon Musk)等人联合发表博文称:“我们正致力于利用物理机器人(现有而非OpenAI开发)完成基本家务。”[1]
2019年7月22日,微软投资OpenAI 10亿美元,双方将携手合作替Azure云端平台服务开发人工智能技术。
2020年6月11日,OpenAI宣布了GPT-3语言模型,微软于2020年9月22日取得独家授权。
2022年6月,量子计算专家、ACM计算奖得主Scott Aaronson宣布,将加盟公司。
微软中国的人工智能程序叫什么?
微软中国没有一个特定的人工智能程序。微软提供了许多人工智能工具和服务,包括 Azure 机器学习、自然语言处理工具包 Microsoft NLP、微软机器阅读器和语音识别服务 Microsoft Speech。此外,微软还拥有自然语言生成模型 GPT-3(通用语言理解模型)。
gpt盒子干嘛用的
GPT盒子是一种基于GPT模型的应用程序,它可以用于生成自然语言文本。具体来说,GPT盒子可以用于文本生成、自动对话、文本分类、语言翻译、情感分析等多种自然语言处理任务。
例如,在文本生成任务中,用户可以输入一些关键词或句子,GPT盒子会自动生成一篇与这些关键词或句子相关的文章或段落。在自动对话任务中,用户可以和GPT盒子进行对话,GPT盒子会根据用户的问题和回答生成相应的对话内容。
ai的鸡汤是不是很厉害
GPT-3是OpenAI最新、最大的语言人工智能模型,由1750亿个参数组成。总部位于旧金山的OpenAI研究实验室今年5月开始逐步推出了该模型,并引起越来越大的反响。这个庞大的语言模型几乎可以胜任所有可以用文字表达的工作:从回答问题、写文章、写诗歌、甚至写代码……无一不包。那么,现实中它究竟有多厉害呢?
最近,国外一名刚入门GPT-3不久的伯克利大学生利亚姆·波尔(Liam Porr),以一个假名,然后用人工智能模型建了一个完全假的博客。不过,这却成功“骗倒”了一大批内容阅读者。
这个充满讽刺性和欺骗性的“AI把戏”很快骗过了Hacker News等科技极客圈子,然后真相曝光——瞬间成为了热点话题——这么多人怎么就被一个完全由AI搭建起来的所谓“博客”给诓了?居然还有不少人“订阅”了上面的消息?
尽管许多人猜测到目前为止最强大的语言生成AI工具——GPT-3会如何影响内容生产,但这种“以假乱真”的程度和效果是他们始料未及的。这是目前唯一一次GPT-3如此真实地展示自己的实力,足以说明这一工具的应用潜力。
在加州大学伯克利分校(University of California, Berkeley)学习计算机科学的波尔说,这次经历中最突出的一点是:“实际上,它超级简单,这是最可怕的部分。”
登上头条狂涨粉的“AI鸡汤文”
虽然GPT-3还没有彻底开放,但波尔却依然轻轻松松获取了接口。波尔提交了一份申请。他填写了一张表格,里面有一份关于他打算使用的简单问卷。但他也没有等上多少时间。在联系了伯克利的人工智能社区的几名成员后,他很快找到了一名已经有此权限的博士生。
这个博士生同意合作后,波尔很快就写了一个小脚本让他运行。它给了GPT-3一个博客文章的标题和介绍,并给出了几个完整的版本。Porr的第一个帖子(在Hacker News上发布的那个)和之后的每一个帖子都是从一个输出中复制粘贴过来的,几乎没有编辑。
他说:“从我想到这个想法并与那个博士生取得联系,到我真正创建了这个博客——这大概只花了几个小时。”
波尔用假名字“adolos”写的第一篇假博客,居然顺顺利利就登上了YC新闻平台Hacker News热门榜第一名!波尔说,他使用了三个独立的账号在Hacker News上提交并投票,试图把他的帖子推得更高。管理员说这个策略不起作用,但他的点击率标题起作用了。
不需要太多编辑就能生成内容的诀窍是——理解GPT-3的优缺点。波尔说:“它很擅长创造漂亮的语言,但不太擅长逻辑和理性。”因此,他选择了一个不需要严格逻辑的流行博客类别——“鸡汤文”,这样就能实现高效和自助式的产出。
然后,他按照一个简单的公式来写他的标题:他在Medium和Hacker News上翻来翻去,看看在这些类别中发生了什么,然后把一些相对相似的东西放在一起。《感觉生产力不高?也许你应该停止思虑过多》“”(Feeling unproductive? Maybe you should stop overthinking)他为其中一篇文章写道。《大胆和创造力胜过智慧》(Boldness and creativity trumps intelligence),他又在另一篇文章中写道。有几次,这些标题并没有起到作用。但只要他坚持正确的话题,这个过程就很容易实现,“鸡汤文”成功地帮着博客蹭蹭蹭狂涨粉。
两周后,他几乎每天都发帖子。随后不久,Hacker News上就有人指责波尔的博客文章是GPT-3写的。另一名用户却回应说,这条评论“不可接受”。甚至有读者读后留言称,“好文!和Ethan Hawke在Ted的演讲一样深刻!”对波尔的假博客持怀疑态度的少数人,居然就这样被社区的其他成员投了反对票,妥妥证明了并非“大众的眼睛都是雪亮的”。
一大部分人愣是没看出来文章不是人类写的,Medium、YC的新闻平台等多家平台都转载刊发了他的第一篇博客、他的博客居然还疯狂涨粉人气居高不下……这让小哥波尔开始感到不淡定了,不过他自己也感到非常惊讶。
波尔说,他想证明GPT-3可以冒充人类作家。事实上,尽管该算法的书写模式有些奇怪,偶尔也会出现错误,但在他在Hacker News上发表的最重要的帖子上,只有三四个人怀疑该算法可能是由某个算法产生的。而且,所有这些评论都立即被其他社区成员否决。
最后,波尔以一条自己写的神秘信息结束了这个项目。标题为《如果我没有道德,我将如何对待GPT-3》,文章将他的过程描述为一个假设。同一天,他还在自己真正的博客上发表了一篇更直白的自白,澄清曝光了“假博客”的始终。
AI语言工具引发担忧与思考
根据OpenAI的算力统计单位petaflops/s-days,训练AlphaGoZero需要1800-2000pfs-day,而OpenAI的GPT-3用了3640pfs-day,看来拥有微软无限算力的OpenAI,现在真的是为所欲为了。
对于专家来说,这一直是这种语言生成算法引起的担忧。自从OpenAI首次发布GPT-2以来,人们就猜测它很容易被滥用。而GPT-3已经成为OpenAI迄今为止推出最新、最大的AI语言模型。在自己的博客文章中,该实验室重点关注了人工智能工具作为大量制造错误信息的武器的潜力。其他人则想知道是否可以用它来大量发布谷歌游戏相关关键词的垃圾帖子。
去年2月,OpenAI的GPT-2(该算法的早期版本)登上了新闻头条,OpenAI宣布将保留该版本,以防被滥用。这一决定立即引发了强烈反响,研究人员指责该实验室在“搞噱头”。到了11月,该实验室终于改变了立场,发布了这个模型,当时还言之凿凿地称“到目前为止没有发现滥用的有力证据”。这不,这回“翻车”翻得有点厉害了。
该实验室对GPT-3采取了不同的方法;它既没有拒绝,也没有允许公众访问。取而代之的是,它将算法提供给了那些申请私有测试的研究人员,目的是收集他们的反馈,并在今年年底将这项技术商业化。
波尔说,他的实验还展示了一个更平凡但仍然令人不安的选择——人们可以使用该工具生成大量的点击诱导内容。他说:“很有可能会出现大量平庸无质量的博客内容,因为现在进入的门槛太低了。”“我认为在线内容的价值将大大降低。”
波尔计划用GPT-3做更多的实验。但他仍在等待OpenAI的介入。他说:“他们可能对我的所作所为感到不满。”“我是说,这有点傻。”
背后的“AI大法”OpenAI
在成立的短短四年时间里,OpenAI已经成为全球领先的人工智能研究实验室之一。与Alphabet旗下的DeepMind等其他人工智能巨头一样,谷歌不断推出引人注目的研究成果,并因此成名。它也是硅谷的宠儿,创始人包括埃隆·马斯克(Elon Musk)和传奇投资者山姆·奥特曼(Sam Altman)。
最重要的是,它因其使命而受到推崇。它的目标是成为第一个创造人工智能的机器——一个具有人类思维的学习和推理能力的机器。其目的不是统治世界;相反,该实验室想要确保这项技术是安全发展的,并且它的好处能均匀地分配给全世界。
这意味着,如果AGI技术的发展遵循阻力最小的道路,那么它很容易失控。围绕在我们身边的那种笨拙的人工智能,就是一个例子。问题是,AGI一直都很模糊。该领域内的共识是,这种先进的能力将需要几十年,甚至几个世纪的时间——如果真的有可能发展它们的话。许多人还担心,过分追求这一目标可能会适得其反。
大多数人第一次听说OpenAI是在2019年2月14日。那天,实验室宣布了一项令人印象深刻的新研究:只需按下一个按钮,就可以生成令人信服的论文和文章。
但也有一个问题:研究人员说,这种被称为GPT-2的模型释放起来太危险了。如果这样强大的技术落入坏人之手,就很容易被“武器化”,制造大规模的虚假信息。这立即引起了科学家们的强烈反对。
在持续不断的炒作指控中,OpenAI坚称GPT-2不是噱头。更确切地说,这是一项经过深思熟虑的实验,经过一系列内部讨论和辩论后达成一致。大家一致认为,即使这次的行动稍微有点过火,但它将为处理更危险的研究开创先例。
但OpenAI与GPT-2的媒体宣传活动也遵循了一种成熟的模式,这种模式让更广泛的人工智能社区产生了怀疑。多年来,该实验室的重大、引人注目的研究公告一再被指责助长了人工智能的炒作周期。批评人士还不止一次地指责该实验室大肆宣扬其研究结果,甚至达到了错误描述的地步。出于这些原因,该领域的许多人都倾向于保持一定的距离。
GPT-2引发如此强烈的反弹还有另一个原因。人们觉得OpenAI又一次违背了它之前关于开放和透明的承诺,并走上了营利的道路。未公开的研究让人们更加担忧和怀疑——会不会是这项技术一直处于保密状态,为将来获得许可做准备?但是人们并不知道,这不是OpenAI唯一一次选择隐藏它的研究。
gpt3中国可以用吗
您好,GPT-3在中国是可以使用的。GPT-3是一种最先进的人工智能技术,它可以根据输入的内容自动生成文本,并且可以根据输入的内容自动生成200-500字的文本,而且不会出现重复的内容。GPT-3可以用来解决各种问题,比如自动翻译、自动文档摘要、自动问答等等。GPT-3可以帮助您提高工作效率,节省时间,提高工作质量,让您的工作更加高效。