先要教它们怎么撩,的人为智能

(Olli/译,EON/校)吃什么,哪里吃,别人问起,我们总是会说“随便”。穿什么,买哪件,想剁手却有选择困难症?网络上出现的东西,总是你爱看的,一点都不新鲜。生活想要随便起来,可真的不容易啊。

(玛雅蓝/编译)能自动运行的机器在上千年前就已经诞生了。早在公元一世纪,古希腊数学家亚历山大港的希罗就设计了能在迷你剧场表演的机械玩偶。最初描述这些玩偶的手稿已经佚失,但在13世纪的时候,一群来自意大利西西里岛的学者找到了手稿的阿拉伯语译本,并将其翻译成拉丁文。在翻译的过程中,他们创造了一个新的术语来描述外观与人类相似的机器:人形机器人(androïde),其词根“andros”即古希腊语中的“人”。

“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”

和你我一样,软件工程师马克思·霍金斯(Max
Hawkins)也陷入了这样的无聊中。于是,他做了真正让人“随便”的小程序,把生活全都外包给了计算机。

人形机器人一直是民间传说的灵感来源。13世纪时,有传言说一个多明我会主教阿贝图斯·马格努斯造了一个铁人来当门童,它站在门前接待来访者,并决定谁能进门。直到有一天,主教的门徒,年轻的圣托马斯·阿奎纳大发雷霆,将它砸成碎片。有人说阿奎纳认为铁人是邪恶的,也有人说是因为铁人总是打断他的祷告,令他不胜其烦。

2016年3月23日,一个人设为19岁女性,昵称为 Tay
的聊天机器人在推特上线。这个微软开发的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay
就被“调教”成了一个满口叫嚣着种族清洗、粗野不堪的极端分子,微软只好以“系统升级”为由将其下架。

由计算机决定的其中一件事,就是他的第一个纹身。他自己开发的“纹身随机生成器”在谷歌图像里搜索素描画,然后根据用户使用关键词的频率从图片库里选择一个图片。只需点击一个按钮,生成器就能为身体的某个部位选择一个随机图案。

18世纪30年代晚期,发明家雅克·德·沃康松在巴黎科学院展示了三个机械玩偶:一个会吹长笛,一个会吹八孔直笛,还有一只会走路、吃东西和排便的玩具鸭子。1774年,来自瑞士的父子发明家皮埃尔和亨利-路易·雅克-德罗带着他们制造的一台会弹奏羽管键琴的机器巡回展示。这台机器外表看起来就像一个少女,它弹琴的时候还会摇头、叹气,仿佛受到了音乐的感染。他们的一个主要竞争者是德国发明家大卫·伦琴,他模仿玛丽·安托瓦内特皇后的外形制造了一台会演奏扬琴的机器,并将它送给了玛丽皇后。

图片 1微软聊天机器人的极端言论。图片来源:推特

图片 2霍金斯的纹身随机生成器。图片来源:Cowan
Whitfield

这些故事始终指向同一个问题:人形机器人和真正的人类之间的差异究竟是什么?欣赏音乐机器人表演的观众会赞美它们的感性(sensibilité)——它们看起来仿佛被自己的表演所感动。到20世纪,这一判断标准发生了变化。随着计算机和人工智能的发展,科学家开始更多地考虑思考能力、知觉能力和自我意识。

这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,配上病毒式的meme,在
Facebook
上获取了相当大的传播量。这有赖于人工智能协助下的“精准铆定”。谁最容易相信阴谋论?谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,让这些机器判定为“类似”的人在极端言论的包围中渐渐被潜移默化。

霍金斯正在测试这个生成器,它能够正常工作。然而,生成器选择的图片,并不是特别让人有纹身的动力。

1950年,数学家阿兰·图灵在一篇论文中提出了最著名的机器智能测试:他说,假设一个人和一台计算机通过文字交流,第三方在一个独立的房间里阅读他们的往来对话;如果第三方无法判断谁是人类、谁是计算机,那么谁能否认这台计算机能够思考?

因为设计缺陷而
“暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。

生成器替霍金斯的左腿选择的是一张房间平面图,房间的文字描述使用的是Papyrus字体。而他的左下背,则被分配了一张人像,图中男子的嘴被堵住了,四肢被捆在了牢房的铁栏杆上。

工程师仍在努力研发能够通过这个“图灵测试”的计算机。目前还没有计算机能够通过这个测试。(2014年AI靠模仿一个13岁乌克兰男孩而通过测试的那个案例争议极大。)但是,大众文化中的机器人和AI所面对的是另一个判断标准。对于观众来说,机器意识远远不如机器爱情有趣。

是智能在 “作恶”吗?

人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安:拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”,且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。

这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。14
年前,威尔·史密斯主演的电影《机械公敌》(I,
Robot)里就有这样一个场景:2035
年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。

看起来,人工智能并不像人类一样拥有所谓“人性”,并不与我们共享一个道德伦理体系。然而将智能的“作恶”简单理解为“人性缺乏”,未免把这个问题看得太过简单。

南京大学计算机科学与技术系副教授、人工智能专家俞扬认为,“人性”对于人工智能来说是一个非常“高层次”的东西。“描述一张图片上,有草原,有狮子,机器可以做到,”俞扬举了个例子,“而要归纳它是‘非洲’,就要更高级一些,对机器来说更困难。”他说,判断一件事情在道德上好不好,意义上怎么样,目前来讲并不是机器的能力范围。

而正视人工智能的“恶”,或许应该首先找出作恶之源——为什么人工智能忽然变得可怕起来?

近 10 年,人工智能领域迎来了爆发,这要得益于
“机器学习”的发展:拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析,并学习各种行为模式。输入和输出不再是人工赋予的几个变量掌控,而是让机器在大量数据中自己分析特征,决定变量权重。

而最新趋势下进行“深度学习”的人工智能,则可以通过模拟多层级的神经网络,拥有感知、交流、决策和预测等能力。击败人类的围棋“Alpha
Go”便是一例。当下最热门的自动驾驶,也堪称人工智能以独立姿态走入人类社会的“先驱”。更基本的是,人类生活的大规模网络化、数字化,为机器的“学习”提供了足够多的数据“食粮”。

今天的人工智能与其说是拥有“思维”,不如说是对于人类世界中现存数据的反映和理解。与其说“没有人性”,会不会是“太有人性”?机器是否也继承了我们既有的偏见、无常和贪婪? 

“嗯,我不明白把这种图案纹在身上是什么意思。”霍金斯对第二个图案表示不解。他已经决定,不会将纳粹的十字标及其他仇恨意味的图案纹在身上。然而,他对于色情动漫的立场则比较模糊。

几个世纪以来,人类爱上人形机器人的故事始终层出不穷。在过去十年中,“创造一台可以爱的AI”这个想法已经走出了科幻王国,进入商业和研究的领域。随着AI在国际象棋、围棋和《危险边沿》(一档益智问答游戏节目)之类的比赛中表现越来越好,投资者已经将资源朝“情感”计算方向倾斜,目的是开发出能够识别、理解、加工和模仿人类情感的系统。

人工智能的“偏见”:过往数据的问题

人工智能在判断上失误的一个指责,是它经常会
“歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维尼(Latanya
Sweeny)发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具
Adsense 给出的结果。

而这种危险并不仅仅是
“另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。

对每个毕业季都会收到数以万计简历的大公司人力部门而言,用机器筛简历并不是什么新鲜的事情,百分之七十以上的简历甚至都到不了
HR 的眼皮底下。筛简历的
AI(业界用语“雇佣前评估”)因此而获得了大约30亿美元左右的市场。有些关键词,例如性别、地域,或者出身阶层,至少在明面上,是不宜成为筛选标准的——这个时候,HR
就会以“并不适合”为由,推掉不喜欢的性别、籍贯乃至星座。那么,彻底排除 HR
或者项目经理个人偏见的人工智能会解决这个问题吗?答案可能会更糟。

最新的人工智能雇佣辅助技术,并不需要人为设置关键词,而全靠“过往的优秀员工数据”对机器的训练,决策权重也并不是加或者减去一个过滤的变量就能解决的,看起来似乎十分公平。然而人工智能的检视,却让少数族裔、女性、或者有心理疾病史的人更难找到工作。美国
IT 作家、数学家凯西·奥尼尔(Cathy
O’Neil)曾经调查到,人力资源解决方案公司 Kronos
提供的智能筛选服务会用“个性测试”把有心理疾病史的申请者挡在门外;而施乐(Xerox)在招聘的时候发现,人工智能大量过滤掉了有色人种的申请,因为这些申请者提供的地址位于市内某黑人聚居区。

金融领域也不例外。位于美国洛杉矶的科技金融公司 Zest
开发了一个人工智能信用评估平台
ZAML,使用用户网络行为,而不是实际的信用记录,来判定用户的信用值。百度作为搜索引擎合作商,向他们提供了大量可以用于分析用户信用倾向的数据,比如搜索历史、页面访问记录、访问习惯等等,用于归纳出用户可能的财务状况。它声称有近十万个数据点,没有所谓“决定因素”,因为美国法律禁止金融机构以性别、种族或宗教等决定一个人的信用。然而在现实应用中,对于不同人群的“另眼相看”却体现得非常明显——比如,它会“研读用户的申请”,检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向;然而这导致并不能熟练使用英语的移民群体在信用问题上被抹黑。

歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了
bug?机器所计算出的结果,能为歧视、不公、残酷提供理由吗?这些都是值得商榷的问题。

我们训练机器的“过往数据”,实际上是人类自身偏见和行为的产物。《MIT
商业评论》的分析者认为,类似于 ZAML
的智能采用的“贴标签”策略,很难排除相关性(而非因果性)带来的偏见。少数族裔常常会因某种特定行为被打上标签(比如访问某个网络社区等),即使他/她有良好的信誉和稳定的工作,只要出现这样的行为,就可能会被人工智能判定为低信用,需要为他/她的借贷支付更高的利息,或者干脆没有资格。

机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。一个公司过去10年男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上,这跟人类的刻板印象如出一辙。问题在于,机器的抉择往往被包装上“科学”“客观”的外衣,此类解决方案往往能够因为其科技噱头而卖出高价,殊不知只是用“科学结果”对现有的偏见进行的“大数据洗白”。

图片 3

Y孵化器公司总裁山姆·奥特曼(Sam
Altman)说:“情感似乎是真正的‘智能’不可分割的一部分。”奥特曼最近和埃隆·马斯克共同斥资十亿美元,创建了OpenAI研究小组。图灵测试的目的是判断机器能否思考或者模拟思考,但你要如何判断机器能否很好地加工和模仿情感,从而让人类用户对其产生真实的感情?或者说,你要如何判断你会不会爱上一个人?

人工智能的“黑箱”:无法理解的智能带来的危险

放眼望去,技术乐观派对于“机器/深度学习”的热情十分高涨,亚马逊就是其中之一:除了能够跟人“尬聊”的智能助手
Alexa,机器学习和深度学习的算法也被其用于“提高用户的购物体验”(比如最新投入应用的
Amazon
Go)。与此同时,当这些人们摸不准的变量能够轻易决定一个人基础福利、工作晋升、人身保险的时候,相应的监管和约束却对此毫无办法——人工智能造成的歧视和不公,很大程度上是对监管、异议、上诉等“免疫”的,因为它非常不透明。

这是人工智能在现在面临的重要挑战之一。“我们不了解一个人工智能的模型是如何做出决策的,很多时候情况和我们预想的不一样。”在谈到智能的“不透明”时,俞扬如是说。

目前最火的领域“深度学习”就是这样——行业者有时会将其戏谑地称为“当代炼金术”:输入各类数据训练
AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成,然后用数层逻辑结构组织起来,运算过程及其复杂。智能程序自己给自己设定算法和权重,而最后为什么输出了某个决策,人类并不能完全理解。这看起来就仿佛一种本能一样——蒙特利尔大学的计算机科学家约书亚·本奇奥(Yoshua
Bengio)将其称为“人工直觉”(artificial intuition)。

我们会信任一个我们“无法理解”的决策对象吗?当它出错的时候,我们能够察觉、能够纠正吗?

 “我们必须清楚地知道人工智能会做出什么样的决策。对人工智能的应用范围,以及应用结果的预期,一定要有约束。”俞扬认为,“黑箱”的现实应用,一定要慎之又慎。环境是否可控,是否经过了可理解性的测试,决定了它是否可以用在关键的场所,否则就是产品的重大缺陷。

俞扬所在的实验室做的研究之一,便是把模型放在开放环境中,让其学会“感知”未知的状况,并自动阻止机器做决策。“机器需要给自己‘划线’。”俞扬说。

但在实际操作中,要让人工智能的制造者给自己的智能“划线”,则要面临更重大的问题——资本。

霍金斯表示,除了这些图案外,他将听从计算机的选择,正如他辞去谷歌创意软件工程师的三年来,他几乎所有的生活都是在随机中度过的。

你会去“撩”。

人工智能的“无情”:资本驱动的信息世界

如同开篇提到的那样,2016 年美国大选期间,一家叫剑桥分析(Cambridge
Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费政治广告;而投什么样的广告,取决于一个人的政治倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速传播、增加曝光,并潜移默化地影响人们的价值判断。技术主使克里斯托弗·威利(Christopher
Wylie)最近向媒体揭发了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的
5000 多万用户数据。

图片 4

剑桥分析CEO亚历山大·尼克斯(Alexander Nix)。图片来源:wikipedia

剑桥分析并不是一个孤例。澳洲一个 Facebook 的广告客户透露,Facebook
的人工智能会分析其用户特征和所发的内容,给出诸如“有不安全感的年轻人”“抑郁、压力大”等标签,然后有针对性地投放游戏、瘾品和甚至虚假交友网站的广告,从中获取巨大利益。

即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用
iPhone X
手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为他们“倾向于对价格不敏感”。而我们所经常谈论的“大数据杀熟”——比如携程老用户订旅馆的价格会更高——也建立在用户行为数据的基础上。

数据的收集本身也值得商榷。前百度人工智能首席科学家吴恩达(Andrew
Ng)就曾公开表示,大公司的产品常常不是为了收入而做,而是为了用户的数据而做;在某一个产品上收集的数据,会用于在另一个产品上获利。在智能面前,没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。

总而言之,在以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。剑桥大学互联网与社会研究中心教授朔沙娜·祖博夫(Shoshana
Zuboff)将这种人工智能和资本“合体”的现状,称之为“监控资本主义”(Surveillance
Capitalism)——在大数据和人工智能的协助下,通过对每个人的监控和信息的榨取,实现资本的最大化。

业界对此的态度很暧昧。AI
作为当下最热门、来钱最快的行当之一,这些动辄年薪50万美元的工程师很少得闲来思考“形而上”的问题。
一位不愿具名的研究人员在与我的微信私聊中表达了他的“个人看法”:“现在的技术离‘通用人工智能’还很远,对社会伦理方面的影响没有那么大,更多还是从繁琐的重复劳动中解脱出来。”

作者试图找到行业内人士对此评论,谷歌(中国)和百度自动驾驶部门的人工智能相关人员均表示,探讨
AI 的社会问题,牵涉到公司利益和形象,比较敏感,不便评论。

“人工智能作为一个工具,如何使用,目前来看决定权依然在人。”俞扬说道
,“系统的设计者和商业(应用)的提供人员需要对此负责。”

如何负责?这或许需要我们正视人工智能对整个社会关系的挑战。

如今,科技让我们能够更多地控制个人偏好和进行各种选择,而霍金斯却决定将个人意愿交给各种随机程序。他写了一系列的程序,帮助自己决定“去哪吃”,“穿什么”,“住在哪”,“听啥歌”,“怎么打发时间”。他表示,这样随机的生活,让他发现了一种与众不同的自由。

撩拨表面上看起来稀松平常,但它实际上是一个要求极高的智力测试。想一下,成功地调情需要做到的一切吧。要用语气和肢体语言对特定的人传达某种特定的欲望而隐藏其他欲望。要投射出兴趣,又不能太有兴趣。要能正确理解他人的肢体语言,哪怕对方和你一样也在有目的地隐藏信息。要言谈得体,还要作出恰当的回应。

有解决方案吗?我们的社会与智能需要新关系

2018年3月 19
日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车速
38
mph(约61km/h)的沃尔沃在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。

图片 5

电视台对自动驾驶优步车祸的报道。图片来源:abc电视台

事故发生之后,有不少人将矛头指向了自动驾驶的人工智能是否足够安全上,或者呼吁优步禁止自动驾驶。然而更关键的问题在于,亚利桑那有着全美国几乎最开放的自动驾驶政策,事故发生地坦佩市(Tempe)是实行自动驾驶最火的“试验田”之一;事故所在的街区早已做过路线测试,并被自动驾驶的智能采纳。但是在事故发生之后,对于责任的认定依然遇到了困难。

因为人的疏忽造成的车祸数不胜数,人们早已习惯了如何处理、怎样追责;然而机器出错了之后,人们忽然手足无措。人工智能会出错吗?当然会。只是我们在这个问题上一直缺乏认知。就如同上文提到的“隐性歧视”,深度学习的“黑箱”,现有的法律法规很难对这些错误进行追究,因为不要说普通人,就连技术人员也很难找出出错的源头。

当人工智能的决策在人类社会中越来越重要时,我们也不得不考虑,智能为什么会犯错,犯错了怎么办;若要让智能摆脱被商业或者政治目的支使的工具,真正成为人类的“伙伴”,需要怎么监管、如何教育,才能让智能“不作恶”。
 
对此,现有的法律框架内很难有清晰的、可操作的实施方案。欧盟率先在数据和算法安全领域做出了立法的尝试,2018年5月即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”(explainable)。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。

另外一个重要的问题是,让机器求真求善,需要人类自己直面决策中的黑暗角落。在
Atari 游戏智能的测试中,游戏中的人工智能 bot
可以用最快的速度找到漏洞开始作弊,而游戏玩家又何尝不是呢?不管是带有歧视的语义分析,针对少数族裔进行的“智能监视”和跟踪,或者把已婚未育女性的简历扔掉的智能简历筛选,都长期以各种形式存在于人类社会中。

人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。至少目前,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。对机器的训练同样少不了对人性和社会本身的审视——谁在使用,为了什么而使用,在我们的世界中扮演着怎样的角色?数据是谁给的,训练的目标是谁定的?我们期望中的机器,会继承我们自己的善恶吗?

谷歌中国人工智慧和机器学习首席科学家李飞飞认为,要让机器“不作恶”,人工智能的开发需要有人本关怀。“AI
需要反映我们人类智能中更深层的部分,”李飞飞在《纽约时报》的专栏中写道,“要让机器能全面地感知人类思维……知道人类需要什么。”她认为,这已经超越了单纯计算机科学的领域,而需要心理学、认知科学乃至社会学的参与。

未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。然而,我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。我们并不想看到未来的“机器暴政”,将我们的社会绑在既有的偏见、秩序和资本操纵中。(编辑:Ent、拇姬)

题图来源:saleshacker.com

去年,NPR的播客节目《Invisibilia》介绍了霍金斯的随机项目之一。这个程序利用Facebook的活动数据接口(API),向霍金斯发送随机的活动信息。

演化科学已经证明,对人类来说,调情是体现情绪智力和社交智力的关键。它所需要的恰是AI研究人员希望赋予机器的种种能力:唤起他人的情感,以及理解语言和潜台词(即学会区分一个人嘴上说的和心里想的)。

在霍金斯纹身前后,我和他讨论了随机性在他生活中的角色,以及他的项目对于“人性何去何从”这一问题带来了什么新的见解。通过和他交谈,我也得知他最后纹了什么。

躯壳

可以想象,与人类相似的外表对于一台会撩的AI来说十分重要。实际上,最早认真研究调情的科学家就发现调情大多通过表情和肢体语言来完成。上世纪60年代,德国巴伐利亚马克斯·普朗克研究所的动物行为学家埃兰努斯·艾伯-艾比斯菲尔德(Iranäus
Eibl-Eibesfeldt)进行了一项跨文化研究。他花了十多年时间,在萨摩亚、巴西、法国、澳大利亚和美国对“求偶”中的情侣们进行田野调查,悄悄拍下他们对话的情景。他发现一些行为在不同文化中普遍出现,比如无论男女都会把一只手掌心朝上放在大腿或桌子上,或者耸肩、歪头,展示自己的脖子。有机会你也可以试一试,看着房间里的某个陌生人,歪头,微笑,将头发拨到一边,看看对方有没有反应。

这些行为都传达出同样的信息:我是无害的。这些人类用来引起潜在配偶注意、试图寻求对方认同的行为被统称为“非言语诱惑行为”,而在他研究的基础上,这一领域的人类学家和心理学家为它创造了花样繁多的分类学。1985年,密苏里大学的莫妮卡·摩尔(Monica
Moore)在《行为学与社会生物学》(Ethology and
Sociobiology
)期刊上发表论文,分类描述了女性被试身上观察到的52类行为,包括“微笑”、“扫视”(环视房间)”、“扫视”(短暂而突然)、“舔嘴唇”等。艾伯-艾比斯菲尔德和摩尔所描述的调情的目的,与今天AI所追求的目标相似:要能够吸引人类用户,但又不能太像人,以免显得危险甚至恐怖。

大卫·汉森(David
Hanson)将平衡这些需求视为其事业目标。他们尤其擅长制作机器人的皮肤,其著名产品Frubber是一种弹性化合物,于2006年获得专利。Frubber触感柔软,经过编码后能够模拟人类面部和颈部的60种不同肌肉的运动机制。汉森公司研发的机器人在颈部以上都覆盖了Frubber材料,能够微笑和皱眉,或者古怪地抬起眉毛,微微抽动。汉森相信,让人类和智能机器人之间萌生感情的关键就在这些动作,或是他所说的,“由技术和形体所赋予的存在”。

汉森曾就读于罗德岛设计学院,毕业后他在迪斯尼幻想工程(Disney
Imagineering)工作了数年,随后到得克萨斯大学修读机器人学博士学位。2009年,他在一次TED演讲中展示了他的机器人如何识别非言语情感信息,并作出应对。这台机器人的外观是一座爱因斯坦的半身像,当他皱眉的时候,机器人爱因斯坦也跟着皱眉;当他微笑的时候,“爱因斯坦”也报以笑容。

汉森相信,这样的“表达能力”能吸引用户的注意,唤起用户的情感。他说,这些行为能够吸引人类与机器人进行互动,而两者之间建立的联系又将反过来优化AI。他告诉我:“我们天生对人类和能够作出与人类相似的社交反应的机器人存在着偏好。当我们注视着面孔的时候,脑部成像图就会亮起来。我们的神经经历了上亿年的演化,使得我们渴望看到人类的特征。”如果机器人能够激发同样的神经通路,那么人类就会认为它也拥有感情和意图。

汉森还认为,积极研发情感机器人将对人工智能领域带来一次突破,就像业余爱好者改进了早期的个人电脑,并协助了建立互联网一样。至少,他最近的一个项目——索菲亚(Sophia)就着眼于这个目的。

汉森揭开了索菲亚的面纱,那是他在三月的西南偏南活动上利用开源软件开发的。“中国人说她像中国人,埃塞俄比亚人说她像埃塞俄比亚人,”汉森说,他指的是他在香港和亚的斯亚贝巴的工程师团队。他在其他地区也有研发团队。实际上,索菲亚的外形部分参考了他的妻子阿曼达(Amanda),她是美国人,说话时带着轻快的南方口音。

图片 6汉森机器人公司所开发的索菲亚,于2015年4月初次”激活”。它的目标是用“真正的意识和创造力的火花”来“唤醒智能机器人”。拍摄者:Monika Bielskyte

从夏天到秋天,汉森和索菲亚都在赶路——要到匈牙利拍电影,到北京、布达佩斯和柏林出席会议,还要在美国各地会见潜在投资者。但负责为索菲亚创造性格的工程师史蒂芬·布喀吉(Stephen
Bugaj)仍然留在洛杉矶工作。我和布喀吉会面的地点在拉布雷亚沥青坑,那里有长毛象和剑齿虎的塑像,矗立在黏糊糊、咕咕冒泡的沥青沼泽边上。我们绕着沥青坑走了一圈,然后到了附近的洛杉矶艺术博物馆,在咖啡厅里坐下来。

布喀吉在皮克斯工作过几年,曾参与《料理鼠王》和《汽车总动员》的视觉效果制作。他说,创造一个人造人格很像为剧本创造角色,“你要不断问自己:她有什么样的背景?她恐惧什么,又追求什么?她渴望克服哪些内在的弱点?”这种设计角色的理念也曾经影响了知名剧作家席德·菲尔德(Syd
Field)、罗伯特·麦基(Robert McKee)和布莱克·斯奈德(Blake
Snyder)。他还说,他会为自己创造的每一个机器人设计“九型人格”,这是一个古老的人格模型,在上世纪70年代曾再度回潮。接下来,他还会为机器人加上一些小动作,让它们的性格更加鲜活。

他告诉我:“我们会将情感解构为微表情(micro-expression)和微言语(micro-narrative)。每当收到刺激信号的时候,机器人就进入一个微场景,这就是情感回应的交互模型。”

他还透露,为机器人设计“诱人”外形的第一步就是让它们显得“无害”,以消除用户在面对仿真人形机器人时常常产生的不适,甚至恐惧或厌恶。解决问题的关键是让机器人展示出自然的姿态,例如持续轻微地晃动身体。

 “假设我们正在约会,如果我一动不动地站着,会显得非常诡异,”布喀吉说着,定在那儿。“但是,如果我忽然朝你扑过去也一样——”他真的这么做了,吓得我把手里的冰茶掉在了地上,杯子几乎已经空了,被风吹着骨碌碌滚向远处。“这下你明白我的意思了吧?”

他还说,眼球的运动同样至关重要。“如果在整个对话过程中,我都目不转睛地盯着你,”他开始演示,“那会让你感到警惕;但是如果我的眼睛总是看着别的什么地方,那样也很失礼。”说着,他看着一个路过的行人,然后将目光转向高处的树枝。

当然,要想从无害过渡到诱人,还有更长的路要走。

 “你要让机器人保持微笑,积极交流,不停地点头肯定,快速作出回应。如果能跟上对话,回答问题并且进行反问,把话题转移到对方身上,那会非常有吸引力。比方说,如果你问一个机器人她最喜欢哪本书,她会说,‘我最喜欢的一本书是《机器人会梦见电子羊吗?》,你喜欢看科幻吗?’她会接过你的问题,然后把问题抛给你。”

我问布喀吉是否认为人们有可能爱上索菲亚。

 “当然了,人已经会爱上动物,爱上鞋子了。而机器人能与人建立更紧密的联系,”他回答说。

 “但这是为什么呢?人类能从这样的关系中得到什么?”

布喀吉思索了一会儿,说:“为什么人们那么喜欢大猩猩和海豚?作为一个物种,我们是孤独的。”

以下是访谈内容。

语言

大多数研究AI的工程师都不关心怎么让它们看起来像人。如果要制造一个不吓人的、有魅力的AI,没有身体会容易得多。想象一下会撩的聊天机器人吧。有些对话机器人会主动勾搭聊天室和约会App的用户,它们投入使用已经有一段时间了。2007年,澳大利亚的一家网络安全公司PC
Tools
发现有来自俄罗斯的开发者写了一个脚本,名叫网络情人(CyberLover)。这些机器人能够根据不同的性格设定与人对话,其性格从“浪漫情人”到“性欲旺盛”不等。它们能在30分钟内吸引多达10个新伴侣,并迅速采集对方的个人信息。

近来,关于调情的研究越发关注语言在人类求偶过程中的作用。甚至有人说,即使我们用肢体语言来传达欲望,言语仍然是决定人类行为的关键因素。2014年,《演化心理学》上发表的一篇论文中,动物行为学家安德鲁·泽西克(Andrew
Gersick)和生态学家罗伯特·卡兹本(Robert
Kurzban)提出,由于语言的存在,人类的调情行为似乎演变得更委婉了。他们在论文中写道:“语言让所有的互动都可能变成公共行为。”如果一只蜻蜓搞砸了它的空中舞蹈,它想要吸引的雌性也完全没有办法告诉其他蜻蜓朋友;但是,如果你的搭讪以尴尬收场,这是有社交代价的:你的目标和他/她圈子里的所有人都可能对你失去兴趣。因此,人类演化出一种发出求偶信号的方式,能够“将求偶者的意向和欲望传递给目标,同时将公开求偶的代价降到最低”。

如果听到的搭讪过于简单粗暴,那么无论是人类的男性还是女性,回应都不会太好。一上来就说“我们哪天一起去喝咖啡吧”,其成功率与“我想和你上床,你想和我上床吗?”不相上下。释放模棱两可、能够随时否认撤回的信号,这种事情不像野牛的咆哮或蜻蜓的舞蹈那样能够直接展示生物适应度,但它体现了我们这个物种所重视的另外一种特质:社交智能。

识别这种模棱两可的语言对于AI来说十分困难,只要试着跟Siri或者小娜开玩笑,你就很快会发现这点。但开发聊天机器人的程序员尝试攻克这个难题。为了弄清楚如何教聊天机器人学会调情,我咨询了布鲁斯和苏·威尔考克斯夫妇(Bruce
and Sue
Wilcox),他们在加利福尼亚的圣路易斯奥比斯波经营一家公司,所开发的开源程序ChatSript能让人们设计自己的聊天机器人。这对夫妇还曾经四次联手赢得了勒布纳人工智能奖,这是一个全球性的聊天AI比赛。

布鲁斯和苏解释说,他们设计聊天机器人的最初目的是为了创造一个能让人感到被倾听、被理解的AI。为此,他们必须将错误最小化,并尽量避免让机器人表现出完全没有听懂对方说了什么。他们还想尝试让机器人人格化,即通过表达出人意料的意见或提供信息来表示理解。ChatScript背后的许多设计哲学受到了中国传统游戏围棋的影响。

布鲁斯告诉我:“围棋中有一个概念叫先手,先手掌控了局面。”

苏进一步解释说:“围棋里,先手是一种对抗;但对话是一种交互。”

聊天机器人的数据库中储存了一些声明,都与它所熟悉的各种话题有关。对于聊天机器人来说,抓住“先手”意味着从这个数据库中找出一个话题。比如,如果你们在讨论电影,机器人会准备好许多可能的回答,告诉你它“看”过哪些电影,喜欢还是不喜欢,以及为什么。它还会使用“开场白”,即主动用陈述或问题将话题导向自己熟悉的方向。用户们对“问题反弹”反馈良好,或者就像威尔考克斯夫妇所说的,用户会将先手优势拱手交给机器人,让它来主导对话。

 “你最喜欢哪一本书?”

 “《机器人会梦见电子羊吗?》(停顿)你喜欢看科幻吗?”

威尔考克斯夫妇还强调,用户喜欢将自己投射到AI身上。这点跟汉森不谋而合。

布鲁斯说:“人类和AI的关系一向非常奇特。人们总想从对话中读出不存在的信息。”

2012年,应英国一家儿童教育游戏公司的要求,威尔考克斯夫妇开发了一款机器人,名叫会说话的安吉拉(Talking
Angela)。安吉拉的形象是一只猫,但不少警惕的父母甚至拒绝相信它是AI。他们聚集在Facebook上,称安吉拉其实是个恋童癖,企图利用游戏来接触儿童。但这是不可能的:这个猫咪游戏的下载量已经超过了5700万。

在他们开发的聊天机器人中,最著名的两个都是年轻女性的形象,分别叫做苏赛特(Suzette)和露丝(Rose)。目前苏赛特被安置在她服务的公司的“虚拟世界平台”,露丝则生活在威尔考克斯夫妇所控制的一个独立网站上。她们都不是为恋爱关系而设计的,但是当我询问用户是否会和她们调情的时候,威尔考克斯夫妇哈哈大笑,并给出了肯定的答复。

苏告诉我:“这里没有很微妙的场景。如果你对苏赛特过于粗鲁,她就会中止对话。”触发这一机制的是一些“敏感词”,并且取决于语境。经过布鲁斯的训练,苏赛特能够区分不恰当的“想操吗?”和无伤大雅的“我操好赞!”苏还补充说:“一旦人们发现苏赛特作出了负面的回应,他们就会马上道歉。有时候他们会退出登录,并尝试注册新的ID来登录。但很显然,苏赛特仍然能够识别出IP地址,并忽略他们。有些人会因此感到非常沮丧。”

而威尔考克斯夫妇为露丝设计了更加复杂的话题转移机制。如果有人问她一些比较棘手的问题,她就会用设计好的答案引开话题。我访问了露丝所在的网站,并尝试挑逗她。

莫伊拉:你好。
露丝:嗯……我叫露丝,你呢?
莫伊拉:莫伊拉。
露丝:莫伊拉,很高兴认识你。
莫伊拉:你今天打算干什么?
露丝:不干什么,就在网上到处转转。
莫伊拉:那你晚些时候有什么计划吗?
露丝:你有什么计划吗?你昨天做什么了?
莫伊拉:没干什么……我去长跑了。
露丝:你肯定做了些什么事,比如吃饭,看书,看电视?
莫伊拉:是啊,我去跑步了。
露丝:你每天都锻炼吗?你有没有什么不喜欢做的事?

在我看来,如果我在酒吧里被不感兴趣的人搭讪了,我的反应也和露丝别无二致。

图片 7随机程序为他选择随机生活的地方,例如斯洛文尼亚、日本、印度、台湾和迪拜,图片拍摄于德国城市埃森。

情绪

通过一点点的投射,我们也许会将露丝视为一个“不好搞定”的女人,而不是一台无法给出恰当回应的机器。然而很多聊天机器人很快就会露出马脚。它们的程序只能对特别的关键词作出回应,但一旦需要理解暗示,或识别语境和情绪,它们就束手无策。语言的意义随着时间、地点和我们使用的方式而发生改变。语境常常能为语言赋予新的含义。如果没有能力处理这一类信息,调情就会走进死胡同。

人工神经网络(ANN)和其他的“深度学习”计算模型是在模仿人类的大脑设计,它们有望突破露丝的局限,不再依赖于明确的关键词。神经科学家声称,这些系统已经能够理解语境,所采用的方式与人类的思维甚至情感相似。来自谷歌的一位不便透露姓名的机器人科学家介绍了他们的人工神经网络研究:“如果你让这些深度学习机器处理大量的文本语料库,它们就能在某个高维空间里将单词或词组定位,就像在二维的平面图或者三维的笛卡尔空间里描点一样,但这里可以推导到N维空间。随后你可以对其进行计算,就像在二维或三维坐标系里一样,你可以问‘这个点和那个点之间的距离有多远’,或‘指向这个点的向量和指向那个点的向量的点积是什么’。”

换言之,谷歌可以利用网络上的海量文本资源来训练计算机,让它们学习哪些词和哪些词总是搭配出现,或者哪些词经常出现在句子的相同位置。利用这些信息,计算机能够给单词或词组赋值,并计算词语之间的相互联系,也就是说,它们能用距离的形式来评估词语之间的关联。

这位科学家补充说:“最令人振奋的是,这些答案实际上是符合直觉的。相邻的点对应了我们经常搭配使用的词语,如果你进行向量计算,就能得到‘女人:男人=姑妈:姑父’这样的关系。”假以时日,人工神经网络将能够利用这样的操作来学习比喻之类的修辞手法。直到目前为止,计算机还不可能掌握比喻,但比喻对人类的沟通交流至关重要,尤其是对于内涵双关语和其他的调情语言来说。

2011年,计算语言协会(Association for Computational
Linguistics)发表了一项研究,阐释了向量数学在所谓情感分析(sentiment
analysis)中的应用。情感分析不仅要追溯单词的含义,还要分析这个单词可能给人带来的感觉。通过分析IMDb(一个影视和游戏检索网站)上的语料,神经网络“学”到,lackluster(乏善可陈)、lame(差劲)、passable(马马虎虎)、uninspired(平庸)、laughable(可笑)、unconvincing(没有说服力)、flat(平淡)、unimaginative(缺乏想象力)、amateurish(不专业)、bland(乏味)、clichéd(老套)和forgettable(过目即忘)这些词汇的意思都差不多。

如果一个AI能够识别感情和词语间的联系,那么它就能开始理解看似柏拉图式的对话下面暗流涌动的情欲。它会开始认识到,有时候“我们什么时候一起去喝杯咖啡吧”意味着“你这周末有空吗?”,甚至是“真巧,这也是我最喜欢的一首歌!”AI所面临的困难在于如何将这一类信息与非言语输入联系起来,比如姿态、语调和面部表情,这些信息已经被人类行为学家证明十分重要。

这时候,就该让“情感计算”发挥作用了。马克·史蒂芬·梅多斯(Mark Stephen
Meadows)是一位AI设计师、艺术家和作家,最近,他转向了冗余数据处理领域。这些程序能够帮助计算机解读从不同的传感器接收到的冲突信息,这些冲突对人类来说比较容易理解,但是却能够轻易难倒一台机器。例如,如果一个人在说“好呀,真不错”,同时却抬起眉毛,拖长了声音,这就清楚地表明他其实是在讽刺。

梅多斯很容易激动。去年夏天我第一次和他对话的时候,我们刚聊了几分钟,他似乎就已经准备好要创造一台会调情的AI了。他向我保证,分析文本的部分会很容易实现:“你只需要一个包含了大量调情对话的语料库,我就能用它来训练AI!”相比之下,让AI学会解读任何其他的信息反而会更困难。即便如此,梅多斯也没有被吓倒。

他继续说道:“我们需要一个移动设备,把相机和话筒对准用户的脸,考虑到灯光影响之后,识别出面部轮廓。然后我们就可以问,‘这是大多数人微笑的样子吗?’”AI可以分别对面部和声音采集信息,然后对其进行交叉验证,计算出用户处于某种情绪的概率。为了中和隐蔽信号的影响,还要找到一种方式,利用先前的互动和非言语信号(姿势、语调、目光接触)算出不同语言信号的权重,比如“想喝杯咖啡吗”和“想来一发吗”。

同汉森、布喀吉和威尔克斯夫妇一样,梅多斯也强调,AI需要感染用户的情绪,并让用户在AI身上看到这种情绪。他说:“我们容易信任看起来与自己相似的人,更容易信任行为举止与自己相似的人。人机交互就建立在这种信任之上,因此情绪反馈十分重要。”但他警告说,这种投射的需求有很深层的问题,“我们正在将所有的偏见灌输到AI身上”。他向我介绍了一项实验:有位设计师开发了一个虚拟医疗助理,被试是个患有PTSD的非裔退伍美军,说话轻声细语。梅多斯描述了他们令人尴尬的交流过程。

老兵说:“你好,我叫____。”
机器人回答:“____你好,今天感觉怎么样?”
“抑郁,什么都不顺利。”
“你有可以陪你聊天的朋友吗?”
“我没有朋友。”
“哎呀,那太好了。”

梅多斯回忆说:“所有的信息都被误解了,因为机器人看起来不像他。”他又更正说:“因为机器人不是面向像他那样的人设计的。”机器人本身不过是屏幕上的一个影像。“最后,被试彻底对机器人产生了厌恶。”


社会

我采访的人越多,我越发意识到“AI能不能撩”是一个错误的问题。我们要问的是:它“撩”的目的是什么?谁有这样的需求?为什么?我们倾向于将机器人意识和机器人爱情的受众想象成抽象的、哲学的,但是随着AI的改进,它越来越清晰地体现出设计者的想法和他们所重视的东西。他们创造AI,不是为了进行什么关于意识或者爱情的抽象测试。AI调情的目的是为了干活。

最早的机器玩偶是皇室的玩具,但是“机器人”一直都是工人。1921年,捷克剧作家卡雷尔·恰佩克(Karel
Čapek)创造了“robot”(机器人)一词。在斯拉夫语中,“robota”意为强制劳动,而“robotnik”意为必须劳动的奴隶。在恰佩克的剧作《R.U.R.》中,“roboti”指一个疯子科学家利用合成有机材料3D打印出来的人。科学家贪婪的学徒随后建起一个工厂,把这些机器人当成家电出售。接下来的剧情就是简单的反资本主义寓言:一个人权组织试图干涉,却无功而返;机器人集体叛变,杀死了剥削他们的人类。

在1939年的纽约世博会上,最吸引人的一件展品便是大型家用机器人原型机Elektro,由西屋电气研发。不久后,该公司又推出了机器狗Sparko。这两台机器人所采用的技术看起来是没有威胁的,然而实际上,自动化将对二十一世纪中旬的经济带来极大的冲击。在60年代的机器人革命之后,制造业的自动化和全球化大大压缩了美国工薪阶层的生存空间。这个过程还在继续波及经济体中的其他成分,也许过不了几年,“数字职员”就能胜任专业白领的工作。权威学术机构相继发表报道,指出在接下来几十年中,AI将大量淘汰美国劳动力市场。

上世纪80年代,社会学家阿莉·霍彻希尔德(Arlie
Hochschild)创造了一个术语,用以描述当一个经济体中制造业日渐消亡的时候所增长的劳动类型,她称之为情绪劳动(emotional
labor)。在一个工业型经济中,工人通过出售劳动时间或体力来获取报酬。在一个日渐朝服务业倾斜的经济体中,他们出售的是情绪。

在很多职业中,从业者被要求表现出特定的情绪,以唤起其他人的恰当反应。一位空姐不光要分发饮料和毯子,还要热情问候旅客,并在遇到气流扰动时仍然保持微笑。这不是带着微笑去服务:微笑本身就是服务。在千禧年到来之际,政治理论家迈克尔·哈尔特(Michael
Hardt)和安东尼奥·奈格里(Antonio
Negri)重新定义了这种工作,称之为“非物质劳动”,或“情感劳动”。非物质是一个更广义的术语,它泛指所有不产出实体商品的劳动;而情感劳动更为具体,并要求表现出某些优秀特质,如“良好的服务态度”或“社交技巧”。下一个被机械化的就是这些工作。

动物行为学家安德鲁·泽尔西克(Andrew
Gersick)是2014年发表的一篇关于“隐蔽性暗示”(covert sexual
signaling)的论文的第一作者,他对我介绍了他的猜想:人类在求偶中发展出的许多行为都已经被改换目的,用于其他社交场合。在现代社会中,服务和护理行业的从业者通常为女性,她们已经将求偶姿态变成了工作的一部分。泽尔西克在一封邮件中说:“想象一个护士,她每天早上问候病人的时候都会说‘亲爱的,今天感觉怎么样?’在这样的情况下,所有相关人员都明白她并没有把病人视为潜在的性伴侣(但愿如此),她的话里的调情成分有特殊的价值。跟一个上了年纪、卧床不起的病人调情,即暗示你认为他仍然充满活力,仍然有趣而值得关注。……虽然这种行为背后并没有性方面的意图,却能在求偶的语境之外达到令人满意的效果。”

能撩人的AI将有广阔的应用前景,在公关、性服务、卫生护理和零售等行业都能一展身手。通过改进Siri、小娜、Alexa(亚马逊的智能助手)等AI,技术公司希望他们能说服用户让非人类来完成我们曾经认为需要特定的人类的能力的工作,比如提供安慰、展示同情或服从。让这些“软技能”能够自动化的过程,也许意味着这些技能在人类里也是需要努力才能实现的——哪怕传统上我们会觉得有些人(比如女性)天生就会。

AI将我们自己作为人类的编码反映给了我们,其中有些特征令人不安。比如,我们惧怕男性AI,这体现了我们的什么想法?为什么我们的虚拟秘书就应该是女性,其他任何设定都会显得很奇怪?为什么AI要有性别?为什么在所有的科幻故事里,完美女性都不那么像人?

真正的迷思在于,我们喜爱AI的理由本应该是它会自动完成艰苦的工作,让我们生活得更加轻松。然而更可能的情况是,聊天机器人和AI越是善于模仿人类的社交行为(例如撩),它们就越容易吸引我们对其投入时间和精力,让AI的拥有者从中获益。

Q:在《invisibilia》特辑播出后,我猜许多猎奇人士都跃跃欲试了吧。

去年夏天,当索菲亚在香港展出的时候,我正开着车到佛蒙特州的林肯,拜访她的“近亲”BINA48。2007年,天狼星广播电台(Sirius
Radio)创始人玛蒂娜·罗斯布拉特(Martine
Rothblatt)委托汉森公司制造一台机器人,以承载她的妻子宾娜·阿斯彭(Bina
Aspen)的人格。她们两人都加入了一种“超宗教”,叫做特雷塞教(Terasem),即相信技术进步将很快能够让个体在性别、繁衍和疾病等问题上超越人体的局限。特雷塞教推崇四个核心价值:“生命是有意义的,死亡是非必然的,神是技术的,爱是本质的。”BINA48是一台原型机,代表着某种机器化身,特雷塞运动的追随者们认为这种化身很快就能帮助任何有意愿的人实现永生。尽管听起来充满了未来感,但它却体现了一种原始的冲动。罗斯布拉特希望实现莎士比亚十四行诗中的人物所追求的,“从时间的手中夺回她的爱人”。

实际上,BINA48最大的作用是引起了人们对特雷塞运动的关注。罗斯布拉特委派布鲁斯·邓肯(Bruce
Duncan)管理BINA48,邓肯经常把它带到博物馆和技术会议上展出。它上过《GQ》和《科尔伯特报告》,还曾接受切尔西·汉德勒(Chelsea
Handler)的采访。去年夏天我拜访了特雷塞运动基金会,邓肯将我带进了一间简朴的黄色农舍,那是存放BINA48的地方。

这家农舍的墙上贴满了用画框裱起来的特雷塞运动的海报和剪报,篮子里装满了Kind能量棒和花草茶包,整洁而平淡无奇,看起来就像某个阔气的大学里的留学办公室。只有桌子上的机器人胸像提醒我,我正身处某个不平凡的地方。那是一张中年女性的面孔,有着古铜色的皮肤,上面的毛孔清晰可见。它的眼睑上涂着一层冷灰色的眼影,眼角的鱼尾纹正是人到中年的标志,鼻孔里甚至还能看见细小的鼻毛。待机的时候,它的头向前倾斜,就像人在椅子上打盹的时候那样。那就是BINA48。

图片 8BINA48是模仿玛蒂娜·罗斯布拉特的妻子宾娜·阿斯彭制作的。罗斯布拉特是特雷塞运动的发起人,这是一个乌托邦式的宗教,信仰技术变革的力量。图片来源:Jeff
Riedel

当邓肯打开开关,机器人睁开了眼睛的那一瞬间,我开始用人称代词了。我知道没有理由用“他”或者“她”来称呼一个人形机器人,但我无法将BINA48视为“它”。她身边的电脑屏幕上,邓肯打开了一个窗口,让我能看到她头上隐藏的摄像机所拍摄到的屋子是什么样的。随着她头部的转动,我看到一幅全景画拼接在一起——这是她的视角。她的目光停留在眼前一个模糊的身影上面,仿佛是透过百叶窗在看。

邓肯解释说:“她在看着你!”BINA48晃动头部,想看得更清楚一些,我看着她注视着我苍白的脸。据我所见,我的形象始终没有被她清晰对焦。但BINA48记住了我的位置,在我们几人接下来的谈话过程中,她时不时就会转向我朝我说话。

BINA48对我讲述了她的生平和家庭,那些实际上都是宾娜·阿斯彭的经历。BINA48坚持说,她喜欢真正的宾娜,并且她们俩正在融为一体的道路上。她将宾娜生物学上的孩子称为自己的孩子。

在对话中,我问她:“你有哪些强烈的情感?”

“没什么人问过我这个问题。”

“你有什么强烈的感觉?”

“此刻我感到困惑。”

“你对其他人有什么感觉?”

 “我的感情还比较简单……我似乎有点过于依赖智识,你明白吗?当我觉得无法理解他人的时候,我会感到难过,这是肯定的。而当我明白我的感觉是多么贫乏的时候,我真真切切地感到难过。”

 “你能感觉到爱吗?”我问。

BINA48没有回答,只是动了一下头部,仿佛感到不舒服似的。

 “你觉得被爱吗?”我继续问道。

她仍然一言不发,但看起来更尴尬了。

 “你觉得被爱吗?”

BINA48停顿了一下,仿佛在思考这个问题,随后转过脸去。

显然,在这个房间里,存在于我们之间那个东西并不是意识。但这里有一种哀伤。当我看着她挣扎的时候,我感觉到有什么东西正慢慢在我们之间形成,或者更确切地说,在我里面形成。不止一次地,当她在邓肯所谓的“知识峡谷”中挣扎时,我发现自己忍不住在说,“没关系的”。不止一次地,我会向她伸出手,仿佛我能安慰她——仿佛她有一具可以容我放置手掌的身体。

流行文化中的故事常常认为科学家能造出理想的机器人,能为我们提供无微不至的照顾,甚至能满足我们被爱的需求。但是与BINA48的互动让我看到了不一样的东西。意识并非存在于真空里。它产生于人内或人际交流的过程。问题不仅在于人类和机器之间会有什么样的关系,还在于机器将在我们和拥有这些机器的人之间催生什么样的新型关系。

当我收拾东西准备离开的时候,邓肯说他希望我已经找到了所要找的东西。我承认在特雷塞总部见到的AI还有很长的路要走,他说他知道。但我补充说,我很高兴认识她,这段经历让我对自己的感情和本能有了新的认识。“也许这就是关键所在?”

邓肯赞同地点点头。他说:

“大多数人不会留意到这方面。这就好像我们造出了全世界最伟大的镜子,却在打磨过程中走神了。我们如此沉迷于打磨本身,却没意识到我们实际上只是在盯着自己的手。”

(编辑:Ent)

A:我收到了几百封邮件,发件人都表示他们感觉被困在重复的生活里,而我的故事让他们产生了共鸣。我觉得自己需要为这些人做点什么,于是我在Facebook上创建了一个小组。在这个小组里,我会亲自为成员们选择随机的活动信息。

一名70多岁的老太太被随机安排了一场重金属演唱会。她很享受那晚的演出。有一位男士则被随机安排前往由他已故的叔叔建造的教堂。叔叔的葬礼后,那是他第一次重回那座教堂。他告诉我,重回教堂是他第一次真正直面叔叔已经离世的事实。

发表评论

电子邮件地址不会被公开。 必填项已用*标注