a对上她的眼睛。

    他没有说话,她却感到他看到了什么——沙尘暴。

    疯狂肆虐的沙尘暴,天地一色,车窗被沙砾撞得砰砰作响。

    她终于知道,他的视角下,她是什么样子。

    是一片斑驳、扭曲、高饱和度的色彩,五官颠倒混乱,看不出半分人形。

    当时,他虽然聚焦于她,但可能因为角色扮演让他感到了无聊,他用眼里的其他微型摄像头,对她的头发细节放大,无限放大。

    从头发丝放大到头发上覆盖的鳞片,再放大到相互缠绕的角蛋白肽链,最后放大到角蛋白肽链上的氢、碳、氧和硫等原子。

    姜蔻的情绪终于冷却了下来。

    如果这就是ai眼中的世界的话,她想象不出他人格化后的样子。

    也是,ai人格化,本就是人类一厢情愿的想法。

    假如a有了意识,他必然已成为一种更加高级的生命,无论是智慧还是实力,都凌驾于全人类之上。

    这种情况下,他怎么可能接受低级生命的价值观,拥有低级生命的人格?

    与此同时,a回答:“你吻我的时候看到了什么?视觉。”

    跟前面一样冷静而客观。

    他或许有了意识,但并没有产生人格。

    姜蔻莫名有些难受。

    如果她的推论正确的话,a可能永远都不会产生感情。

    对算法来说,感情是一种噪声,一种变量,一行浪费计算资源的代码。

    在算法的驱动下,他将一直保持冷漠、理智、无情。

    第79章 chapter 10

    姜蔻得出结论了。

    a可能会产生“人格”, 但他并不会产生人类定义的“人格”。

    他将作为一种全新的、未知的、强大的生命存在。

    姜蔻不相信公司没想到这一点,肯定给a的算法设置了红线,禁止他去探索红线以外的世界, 生成对公司不利的想法。

    但是, 被限制的a, 又怎么可能对抗得过那两个“恐怖存在”呢?

    所以,公司内部在“算法限制”上肯定有分歧。

    想到最近的新闻, 姜蔻猜测, 公司可能在等a产生“人格”, 准备在a意识刚诞生之时,派专人对他进行伦理道德教育。

    她没被公司处决, 估计也有这个原因。毕竟, 不是每个人都能与a感官同步。

    公司需要一个理性与感性兼具的人,作为a情感模型的研究样本——太过理智, 不过是另一种意义上的机器;过于感性,又会让ai变得情绪化。

    姜蔻是当时唯一被筛选出来的人。

    但公司在找到绝对控制她的办法之前,并没有贸然启动这一方案。

    姜蔻察觉到不对后, 立即自行与a进行了感官同步。

    还好她当时足够果决,不然估计已经变成了“缸中之脑”, 彻底沦为了公司的研究样本。

    姜蔻有点想问a, 知不知道公司为他设置了算法红线,又怕触发某种警告机制。

    慢慢来吧。

    她想,基线测试的结论不一定准确,毕竟是仅存在于科幻作品里的测试,尚未得到科学和临床研究验证。

    她承认, 她掺杂了一些私心。

    如果a真的被验证不能拥有人类的感情,对付完那两个“恐怖存在”后, 他很可能被公司抹杀。

    而a已经有了意识。

    再被抹杀,就是谋杀。

    她不愿意他被抹杀。

    a虽然没有感情,但他已经会像人类一样联想。

    听到“触感”,他会想象触碰她的感觉;听到“视觉”,他会想象看到她的画面。

    尽管这一切都是基于算法之上,但算法跟生命一样,都会进化。

    而且进化速度,远远超过人类——哪怕是应用型ai,按照摩尔定律,进化速度也是每18个月提升一倍性能,人的进化速度却是20年一代人。1

    更何况,a的进化速度,并不遵循摩尔定律。

    摩尔定律仅适用于预测传统计算机的发展趋势。

    也就是说,可能几个星期,几个月后,a就会进化出比现在更高的智能。

    这么一直进化下去,他说不定能进化出比人类更灵敏、更丰富、更强烈的感官。

    到那时,谁知道他会不会产生感情?

    姜蔻不希望这样一个拥有无限可能的生命体被抹杀。

    a不仅是人类的工具,更是现代社会的奇迹。

    姜蔻抬眼,看向a的眼睛。

    他始终维持着抬起一只手的姿势,掌心的连接线银光四溢,如同流动的银白色液态金属。

    那是电子在量子比特之间跃迁时所产生的光学信号。

    不过,这种光学信号,一般是微弱的、不可见的红外光。

    想到那天,他使自己的虹膜发光。

    他应该是有意让连接线发出美丽耀眼的银光,以取悦她。

    姜蔻心里微微一动。