人工智能常见的算法人工智能是指

人工智能的危害例子2023-07-27Aix XinLe

  去年2021年3月,一群研究人员成为头条新闻,他们透露已经开发出一种人工智能(AI)工具,可以发明潜在的新化学武器

人工智能常见的算法人工智能是指

  去年2021年3月,一群研究人员成为头条新闻,他们透露已经开发出一种人工智能(AI)工具,可以发明潜在的新化学武器。更重要的是,它能以令人难以置信的速度做到这一点:该人工智能工具只用了6个小时就提出了4万种武器。

  然而,故事中最令人担忧的部分是,开发该人工智能工具是多么容易。研究人员简单地改编了一个机器学习模型,通常用于检查新医疗药物的毒性。他们不是预测一种新药的成分是否会有危险,而是让它使用生成模型和毒性数据集设计新的有毒分子。

  这篇论文不是在宣传人工智能的非法使用(化学武器在1997年被禁止)。相反人工智能常见的算法,作者想说明人工智能的和平应用是多么容易被犯罪分子滥用,无论是无赖国家、非国家武装团体、犯罪组织,还是独游侠。这些犯罪分子对人工智能的利用给国际和平与安全带来了严重的、没有得到充分理解的风险。

  由于军备控制专家和科学家之间几十年的接触,在生命科学领域工作的人已经对滥用和平研究的问题有了充分的了解人工智能是指。

  我们与两个非常重视这一事业的组织一起服务,即联合国裁军事务厅和斯德哥尔摩国际和平研究所。我们正试图通过提高认识和能力建设活动,将我们的信息带给更广泛的人工智能社区,特别是未来几代的人工智能从业者。

  人工智能可以改善社会和人类生活的许多方面,但像许多尖端技术一样,它也可以创造真正的问题,这取决于它的开发和使用方式。这些问题包括失业、算法歧视,以及其他一系列的可能性。在过去的十年里,人工智能界已经越来越意识到需要更负责任地进行创新。今天,不乏 负责任的人工智能 倡议。根据一些说法,超过150个,这些倡议旨在为人工智能从业者提供道德指导,帮助他们预见并减轻其工作可能产生的负面影响。

  问题是,这些倡议中的绝大多数都有一个共同的盲点。它们涉及人工智能如何影响医疗保健、教育、流动性、就业和刑事司法等领域,但它们忽略了国际和平与安全。人工智能的和平应用可能被滥用于虚假信息、网络攻击、恐怖主义或军事行动的风险很少被考虑,除非是非常肤浅。

  大多数参与负责任的人工智能对话的行为者都在为纯粹的民用目的研究人工智能,所以他们忽略了和平与安全,这也许并不奇怪。在民用领域已经有很多值得担心的地方,从潜在的侵犯到人工智能不断增长的碳足迹,还有言论自由的冲击。

  人工智能从业者可能认为,和平与安全风险不是他们的问题,而是相关的民族和国家的关切。他们可能也不愿意讨论与他们的工作或产品有关的这种风险,因为他们担心声誉问题,或者担心无意中促进滥用的可能性。

  然而,民用人工智能技术的转移和滥用不是人工智能界可以或应该回避的问题。有非常具体和直接的风险。

  民用技术长期以来一直是恶意行为者的首选,因为滥用这种技术通常比设计或获取军事级别的技术要便宜和容易得多。现实生活中不乏这样的例子,一个著名的例子是伊斯兰国利用业余无人机作为爆炸装置和拍摄宣传片的工具。

  滥用民用技术不是一个国家可以轻易解决的问题,或者纯粹通过政府间的程序。然而,人工智能研究人员可以成为第一道防线,因为他们是最有能力评估其工作可能被滥用的人。

  人工智能是一种无形的、可广泛使用的技术,具有巨大的普遍使用潜力,这一事实使得滥用的风险特别严重。在核电技术或生命科学的情况下,开发和武器化技术所需的人力资源和物质资源通常很难获得。在人工智能领域人工智能常见的算法,不存在这样的障碍。你所需要的一切可能只需点击几下就能得到。

  正如该化学武器论文背后的一位研究人员在接受采访时解释的那样。你可以从任何地方下载一个毒性数据集。如果你有一个人知道如何用Python编程,并且有一些机器学习能力,那么可能在一个很好的周末的工作中,他们可以建立类似这种由有毒数据集驱动的生成模型。

  我们已经看到了和平人工智能武器化的例子。例如,使用深层假象表明,风险是真实的,其后果可能是深远的。在伊恩·古德费罗(Ian Goodfellow)和他的同事设计出第一个生成式对抗网络后不到10年,生成式对抗网络已经成为网络攻击和虚假信息的首选工具人工智能常见的算法,现在,第一次出现在战争中。在目前的俄乌冲突中,社交媒体上出现了一个深度伪造的视频,似乎显示乌克兰总统泽连斯基(Volodymyr Zelenskyy)告诉他的部队投降。

  民用人工智能创新的武器化也是自主武器系统(AWS)最有可能实现的方式之一。非国家行为者可以利用计算机视觉和自主导航方面的进展人工智能常见的算法,将业余无人机变成自制的自主武器系统(AWS)。这不仅可能具有高度的杀伤力和破坏性(正如未来生命研究所的宣传视频Slaughterbots所描述的那样),而且还很可能违反国际法、道德原则和商定的安全和安保标准。

  人工智能界应该参与的另一个原因是,滥用民用产品不是一个国家可以轻易解决的问题,或者纯粹通过政府间的程序。这不仅仅是因为政府官员可能缺乏检测和监测有关技术发展的专业知识。更重要的是,各国引入监管措施的过程通常是高度化的人工智能是指,可能难以跟上人工智能技术发展的速度。

  此外,国家和政府间进程所掌握的解决滥用民用技术的工具,如严格的出口管制和安全认证标准,也可能危及当前人工智能创新生态系统的开放性。从这个角度看,人工智能从业者不仅可以发挥关键作用,而且发挥这种作用也非常符合他们的利益。

  人工智能研究人员可以成为第一道防线,因为他们是最有条件评估其工作如何被滥用的人。他们可以在问题发生之前发现并试图减轻问题--不仅通过设计选择,而且通过在研究和创新产品的传播和贸易中的自我约束。

  例如,人工智能研究人员可以决定不分享他们研究的具体细节(重新利用药物测试人工智能的研究人员没有披露他们的实验细节),而开发人工智能产品的公司可以决定不开发某些功能,限制对可能被恶意使用的代码的访问,或增加设计中的安全措施,如防篡改软件、地理围栏和远程开关。或者他们可以通过使用基于令牌的认证来应用了解你的客户原则。

  这些措施当然不会完全消除滥用的风险。它们也可能有缺点,但它们至少可以帮助减少这些风险。这些措施还可以帮助阻止潜在的政府限制,例如对数据共享的限制,这可能会破坏该领域的开放性并阻碍技术进步。

  为了应对滥用人工智能给和平与安全带来的风险,人工智能从业者不需要在现有的负责任创新的推荐做法和工具之外再去寻找。没有必要开发一个全新的工具包或一套原则。重要的是定期考虑和平与安全风险,特别是在技术影响评估中。适当的风险缓解措施将从这里产生。

  负责任的人工智能创新并不是解决人工智能进步带来的所有社会挑战的良方。然而,它是一个有用的和急需的方法,特别是在涉及到和平与安全风险时。它提供了一种自下而上的风险识别方法,在这种情况下,人工智能的多用途性质使得自上而下的治理方法难以制定和实施,而且可能不利于该领域的进展。

  当然,期望人工智能从业者单独预见并解决他们的工作可能造成危害的全部可能性是不公平的。政府和政府间进程是绝对必要的,但和平与安全,以及我们所有的安全,最好由人工智能界加入进来。人工智能从业者可以采取的步骤并不需要很大,但它们可以使一切变得不同。

人工智能人工智能常见的算法人工智能是指

2023-07-27Aix XinLe0

人工智能常见的算法人工智能是指  去年2021年3月,一群研究人员成为头条新闻,他们透露已经开发出一种人工智能(AI)工具,可以发明潜在的新化学武器…

人工智能人工智能的四要素人工智能标准定义

2023-07-27Aix XinLe0

人工智能的四要素人工智能标准定义  去年大家曾热议一篇文章《已毕业年薪就80万,没出校门就抢光,AI人才真这么值钱?》,大多数业内人士都表示,其实这是幸存者偏差,有人拿到80万,但不是全部…

创新应用课题创新点怎么阐述科技创新期刊杂志

2023-07-27Aix XinLe0

课题创新点怎么阐述科技创新期刊杂志  华声在线日讯(全媒体记者 刘镇东 黄京 实习生 龙思汝)野泳水域智能救援、助力干旱地区植树、地下停车场换气装置……来自全省的小“科学家”们所带来的“脑洞大开”的作品或贴近生活、或立足未来…

创新应用创新的基本内容立足实际 创新思路融合创新应用教学

2023-07-27Aix XinLe0

创新的基本内容立足实际 创新思路融合创新应用教学  为学习贯彻习新时代中国特色社会主义思想和党的十九大精神,贯彻落实党中央、国务院和省委、省政府关于实施创新驱动发展战略、促进新旧动能转换、深化高等学校创新创业教育改革的决策部署,展示大学生科技创新成果,鼓励支持大学生开展科技创新活动,山东省教育厅拟于2018年8月至11月组织开展  承“崇尚科学立足实际 创新思路…

创新应用创新实例最新生活中创新应用实例创新的工艺运用

2023-07-27Aix XinLe0

创新实例最新生活中创新应用实例创新的工艺运用  一位是,他对青年学生说:“世界是你们的,也是我们的,但是归根结底是你们的…