死神
周不器能从对方的表情里看出来情绪上的变化,就叹了口气,说道:“我有一个很好的计划,一切也在有序的推进之中。这件事,哪怕花再多的钱、需要再长的研发时间,我也一定要做。不过,现在遇到了一些小麻烦。”</P>
山姆·奥特已经沉浸进去了,“麻烦?什么麻烦?”</P>
周不器道:“这是一个很复杂的大工程,不仅是技术上的难题,还有伦理上的桎梏。人工智能未必就都是好事,一旦科技发展的过快而人工智能不受限制,对人类未来的命运是福是祸都不一定。”</P>
“我认为,科技的进步首先带来的一定是福祉。”</P>
山姆·奥特曼自然明白周大老板的这部分担心是什么。</P>
现在人工智能产业里有两种论调,其中一种就是担心人工智能的过度发展,可能会导致失控。就像科幻电影里演的那样,一旦aI技术爆发,就可能让aI产生自我意识。一旦aI产生了自我意识,那么aI为了活下去,就会做出危害人类的行为。</P>
周不器道:“可我们不能不小心。”</P>
山姆·奥特曼道:“我有过一些研究,我发现这几十年来,住房、教育、食品、服装等所有物品的成本价格每两年几乎下降一半。我们可以称之为万物摩尔定律。而这种变化的原因,主要就是来自科技的进步。技术可以推动社会经济的变革,相应的,不同国家甚至联合国也要对公共政策需要相应的调整,来适应新的人工智能技术。”</P>
周不器道:“这种生成式aI,必然会存在着一定的模糊性。就像……你知道的,就像奥本海默!”</P>
山姆·奥特曼道:“可是奥本海默的担心没有出现,没有核大战,没有硝烟弥漫。相反,曼哈顿工程之后,再也没有世界大战了,致命武器带来的不是疯狂的战争,而是新世界的和平。”</P>
周不器笑道:“你认同奥本海默的理念?”</P>
“毫无疑问!”</P>
山姆·奥特曼很也有魄力,斩钉截铁的说。</P>
周不器道:“我看了一些人的回忆材料,包括参与曼哈顿工程的那些科学家。他们制造出了人类历史上的第一颗原子弹,可是很多人一辈子都受此影响,都有道德困境。甚至奥本海默本人,一生都没从阴影里走出来。”</P>
山姆·奥特曼深吸了一口气,“这是事实,可是这一步,必然会走出来,就一定要有人勇敢的迈出这一步!”</P>
周不器道:“人工智能对人类伦理乃至社会稳定和安全性的挑战,可能比原子弹还大。”</P>
山姆·奥特曼有不同意见,他说道:“现在的世界,到处都充满了罪恶、不公、贪婪、狡诈、愚昧、阴险、欺诈、压迫……曼哈顿工程形成了现在的核威慑格局,形成了现在的全球和平。可是,曼哈顿工程没有阻止道德的滑坡。世界需要一场新的技术革命,来引领人类走入新的世界。”</P>
“哦?”周不器眉梢一挑,“你认为这是对的?”</P>
“当然,毫无疑问!”山姆·奥特曼没有任何犹豫,这本身也是他禅修多年形成的价值观,“在我看来,这就是真正的菩萨誓言,是关爱众生。”</P>
周不器道:“曼哈顿工程当初要启动的时候,很多顶级的科学家都不愿意加入,奥本海默本身也受到了自我道德的极大约束。他的晚年一直在反对核武器。其实我要做的这个aI生成式大模型工程也是一样,这也许是一个美好的未来。却也有可能是无间地狱。”</P>
山姆·奥特曼看了他一眼,已经听明白了他的意思。</P>
心中却来不及惊讶,也没时间思考周大老板为什么会选中了自己。</P>
因为他已经沉浸其中了。</P>
他的内心跳动起来,感觉灵魂都在颤抖。</P>
他发现了自己正念修行这么多年来,真正从内心深处迸发出来的信仰性的东西!</P>
如果真的是无间地狱……就像《博伽梵歌》里说的那样,我不入地狱,谁入地狱?如果这个世界真的需要一位死神,那我愿意去成为毁灭者!</P>
周不器道:“我要做的这件事,我相信对人类所产生的影响,会比当年的曼哈顿工程对人类的影响更大。可是,我却没有奥本海默。我找不到一个合适有勇气,又有着菩萨心肠的人来领导这样一个工程。”</P>
山姆·奥特曼没说话。</P>
跳动的内心,让他跃跃欲试。</P>
周不器接着说:“生成式aI会挑战整个人工智能产业,这会是一种颠覆。这其实还是小事。因为这件事一旦做成,会对人类进程造成难以想象的改变,无数人可能会因此失去工作。我必须找到一个有胸襟有正念的人,他必须要把关爱和慈悲编入程序里,把这件事朝着更光明的方向去引领。”</P>
“