在过去的十年中,人工智能(AI)曾经只是科幻小说中的虚构部分,可如今已成为我们日常生活的一部分。事实上,AI早已变得大众化,人们现在拥有苹果Siri、亚马逊的Alexa和谷歌助手等虚拟助手,甚至可以在家中的书架上都可以找到它。但是什么是人工智能?我们怎样才能信任它来帮助管理我们的生活?
◉ 什么是人工智能?
人工智能,英文为AI或Artificial Intelligence,是计算机科学的一个分支,通过创建人类智能的模拟来实现。这意味着通过结合适当的硬件和编程控制软件,计算机可以被编程执行一些需要人类介入才能完成的任务。
(相关资料图)
通过输入大量标记信息,AI可以“学会”如何思考 。这些信息被称为训练数据。训练数据有助于机器识别模式,并根据所获得的“经验”来学习采取行动。通过这个过程,AI可以学会执行简单的任务,比如分类电子邮件,也可以学会复杂的任务,如驾驶汽车。
随着AI越来越多地进入到我们生活的方方面面,这引发了关于AI应该和不应该做什么的担忧。这就是伦理道德的作用所在。
◉ 为什么伦理道德在AI方面如此重要?
道德是一套指导方针,规定了行为准则,区分是非。这些准则决定了人工智能如何与人类社会互动,同时考虑到道德、人性甚至文化的各个方面。
伦理道德可以防止我们的机器人变得邪恶,并像好莱坞电影所描述的那样反叛人类。确实如此。
最早提到智能机器伦理法律的之一是科幻作家艾萨克·阿西莫夫。阿西莫夫制定了以下法律,适用于他虚构宇宙中的机器人:
机器人不得伤害人类,也不得因为不动而让人类受到伤害 机器人必须服从人类的命令,除非这些命令与第一条冲突 机器人必须保护自己的存在,只要这不违反第一条或第二条
这些法律指导着我们应该如何对待和设计AI系统,并确保它们不会危害人类。 AI系统需要被设计成尊重人类价值,尊重隐私和安全,遵从道德规范 。如果AI系统没有正确地设计和使用,可能会对社会带来严重影响。
虽然阿西莫夫的“法律”是虚构的,但它们仍然提供了一个有效的模板来引领人工智能不断发展的道路。它们已经成为许多存在于人工智能中的社会和道德困境的基础。
虽然机器本身无法怀有恶意,但AI仍然容易受到偏见的影响或被拥有不良意图的人类所利用,例如黑客或恐怖分子。 AI通过接受人类生成的训练数据来“学习”,因此会受到可能存在于其中的社会和文化偏见的影响。受到有偏见的编程限制或受到负面采用威胁的AI系统无法为整个人类服务。
取代人力劳动的技术对那些被取代的人的生计构成威胁。 这有可能扩大贫富差距,并将经济发展限制在拥有人工智能技术所有权的群体中 。
虽然AI具有学习如何做出明智而复杂的决策的能力,能够减轻人类生活的单调乏味,但它也可能带来风险,即开发一种创造者无法控制的思维过程。这样的机器太不可预测了,无法保证人类的安全和利益。
随着技术飞速发展,机器比以往任何时候都更加逼真。由总部位于香港的汉森机器人公司制造的一款名为Sofia的社交人形机器人,它可以执行人工智能功能。该机器人已参与了多次备受瞩目的采访,能够进行复杂的对话。虽然Sofia不是自然人,但在2017年10月25日获得了沙特阿拉伯的公民身份,成为首个拥有任何国家公民身份的机器人。这种将机器人授予公民身份的行为,在法律上使其与人类公民平等,模糊了人和机器之间的界线,引发了关于感知、人性和机器人权利的争议。
因此, AI伦理道德领域是一个需要不断讨论和演进来跟随技术进步的动态领域 。
原文由Tanvi Dayal撰写,中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。
关键词: