人工智能壁纸悠悠张元英ai人工智能微软人工智能叫什么ai智能机器人真人

人工智能大数据算法2023-08-20Aix XinLe

  前言:如果说技术(上)篇偏向于宏观的背景描述,那么下篇我希望给大家带来的是直接能拿到卷子上的内容,那我们就直接进入正题啦

人工智能壁纸悠悠张元英ai人工智能微软人工智能叫什么ai智能机器人真人

  前言:如果说技术(上)篇偏向于宏观的背景描述,那么下篇我希望给大家带来的是直接能拿到卷子上的内容,那我们就直接进入正题啦。这里必须和大家说好,技术类的专题是一定要背诵的,但是不用“沉迷”到研究哪个技术给研究明白,你只需要记得某些技术的特征对应到我们专业知识该如何作答即可(应试层面的一些小tips,当然啦之后有机会能搞懂也是极好的)

  人类正在大步迈进一个以互联网+、大数据、人工智能、云计算为表征的数字狂飙时代。随着数字技术在现代和公共管理领域开发和应用的速度、广度及深度不断攀升,“基于数据的治理”渐成大势所趋。这一结构性变革的好处显而易见:高效、便捷、透明、公正、绿色、环保……但值得注意的是,它也在冲击、挑战甚至瓦解传统的社会制度和大众文化,激发、催生并型构出新兴的样态和治理结构。

  随着政府、企业和社会组织的运行与决策越来越依赖大规模的数据收集、分析、整理和使用,人们所熟悉的传统社会变得越来越透明化、赤裸化和公开化。对于掌握数字技术的个人和机构来说,数据面前人人平等,只要数据足够,整个网络世界中的个人和机构完全呈现一种裸奔状态。此时所谓的数据安全,像极了“皇帝新衣”的童话。如果用户的信息发生流失和泄露,或者被他人窃取、盗买、篡改和利用,就会引发数据安全危机。

  大数据的收集与整理必然需要个人生活、工作和交往的细节及信息,也势必会形成对个人隐私的威胁。正如艾瑞斯所说:“隐私问题部分来说不是大数据分析的问题,它是数字化过程的阴暗面。”换句话说,一己生命的一切迹象都被记录到计算机数据库,接受通盘监控和管理。不只是侵犯了隐私权,简直彻底破坏了个人的自治状态,其实就等于毁灭人类灵魂。”

  当前数字安全的最大威胁来自数字巨头。这些超级数字巨头掌控无穷无尽的数据,占据无以匹敌的优势,拥有“上帝般的力量”。于是,拥有无与伦比的规模经济、强大的品牌效应和使用惯性、对高端人才的吸引、高昂的转换成本和独特的用户锁定、先进的大数据和机器学习等优势及特色的数字巨无霸、数字巨头和数字帝国慢慢登上历史舞台。数字巨头的竞争优势并不在于它们能够超然于法律之上或左右司法,相反,它们真正的优势恰恰在于在现有法律的框架下,依法合规地获取大量用户的准确数据。这些数据有助于它们更好地了解这些用户,并不断改进它们的产品和服务,它们利用已有及以后不断获取的数据,又能迅速做大,形成新的垄断。再次,垄断排他。数字巨头一直奉行垄断性、霸权性与反竞争性理念。巨头们普遍遵循这样的潜规则:我们可以便捷、廉价甚至免费提供产品和服务,但用户必须放弃一部分权利以对接我们的服务ai智能机器人真人,保障我们的运行。

  数字技术通过拓展信息获取渠道、革新互动模式、重塑身份认同,从根本上彻底改变了当前的社会关系和社会结构;被改变的社会关系和社会结构反过来又加强了数字技术开发和应用的不对等性和不均衡性。具体表现为:

  首先,数字不平等使社会分层由线下向网络空间延伸。若将数字不平等作为因变量考虑,会发现现有社会阶层差异会延伸和再现于数字空间中,互联网并没有像乐观者设想的那样消弭差异,而是在一定程度上以数字参与的形式复制了现存各个群体的差异。

  其次,数字不平等使技术资本不断强化线下不平等。若将技术资本作为自变量,会发现它以马太效应的方式加强了线下不平等,数字弱势群体往往在现实中也难获利。

  再次,数字不平等使技术资本持续重塑线下不平等。在特定条件下,弱势人群反而能够通过使用互联网来增强线下社会资本,重构社会不平等结构。

  “始于自由、终于”的霍布斯为后人描画了一只残暴的恐怖海怪,用以指代强大无比的现代国家和至高无上的君权。数字的赋权性加剧了新技术对传统社会、经济和的结构性冲击与颠覆性挑战。其中最为根本的是,这种新型数字权力使传统权力结构发生重大改组,这种重组分别在体制内和体制外同时展开:体制内,政府越来越依赖以数据治理国家和社会,数字威权和技术的趋势日渐成熟;体制外,巨型数字公司通过掌控数据、垄断技术建立起相对独立于政府权力的“科技帝国”。

  数字时代需要长期的技术积累、巨量的资金投入和优秀的人才储备,这些条件只有少数确有实力的科技巨头公司才能满足。“资本的逐利性和技术对资金的依赖性导致了在这一波热潮中,既有的科技公司对人工智能有了明显增加的资金投入,而独角兽公司的快速成长也与海量的资金投入密切相关”。这些科技巨头凭借雄厚的人力ai智能机器人真人、物力和财力迅速形成技术垄断,逐步占领科技市场ai智能机器人真人,从而形成无所不在的强大影响力。在此基础上,科技巨头还寻求与公共权力的合作与共享,以提供技术支撑、公共服务和公益产品等形式慢慢渗入政府体制,进而影响公共权力的运行与效果。于是,一个外在于传统体制的超级权力迅速崛起。

  随着数据治理在国家治理体系中的广泛普及,国家治理体系的完善和国家治理能力的现代化将越来越依赖大数据、新型算法以及掌握和操纵这些技术的巨型科技公司。这一局面可能造成三个直接后果:一是数据治理越普及,政府对数据以及掌握数据的数字巨头的依赖性越强;二是政府的依赖性越强,授予数字巨头的数字权力越大,数字巨头的行动能力越强;三是数字巨头的能力越强,获取数据的规模越大,处理数据的速度越快,给政府提供的服务越多、效率越高,政府的依赖性就越强。这一闭合循环内含权力和依赖的此消彼长,终将改变政府与科技巨头的力量对比和权力结构。

  现如今,数字巨头的角色和地位不断攀升。“权力关系的现实已经改变。算法组成的政体正在和国家政府相竞争。审查和监控好比数据货币化一样,从政府转移到数字跨国企业”。2021年2月18日,澳大利亚政府要求脸书新闻内容付费,脸书公司旋即重拳回击,屏蔽了澳方新闻媒体在该平台的全部信息。此举使澳方内外交困,不得不于5天后妥协。数字巨头令主权国家放下身段屈服微软人工智能叫什么,这让全世界看清了一个事实:脸书不再只是一个跨国数字企业,俨然已成为一个强大的行为体,具备了与主权国家讨价还价的资格和实力。在可以想见的未来,“这些跨国企业也将与主权国家一道,成为国际体系的重要参与者,国际关系的主体日益呈现出多元化的趋势”

  算法规则在本质上是解决问题的一系列指令,“是用系统的方法处理问题的一种策略机制”,究其本质就是依据人工给定的规则,只不过经由智能机器自动操作完成而已。这些人工制定、授权的规则往往存在性别、种族、职业、收入等方面的倾向性,一些弱势群体、边缘群体和少数族群往往被排斥在规则范围之外,一旦某个算法模型产生了歧视,这种歧视可能会被不断巩固、强化和放大。因为算法决策会形成一个“歧视性反馈循环”,一旦启用不准确、有偏见的数据去设计算法,然后再用这种算法得出的运行结果来反馈,原有的偏见会再度扩大、加强。按这个逻辑,算法完全可以基于偏见而创造一种充满歧视的现实。

  社交平台想追求的是:人们飞速点击,甚至没有完全意识到自己为什么被某篇文章吸引而不是另一篇;人们往往会被认知偏见、非理性力量和半清醒状态下的决定所动摇。要读者点击,有时需要操纵一下,有时需要不易察觉地说服。

  在算法规则的精准推送下,人们只会不断强化自己早已深陷其中的信念和偏见;智能算法成功屏蔽了那些可能激怒读者的对立信息和观点。于是,人们就看到了这样一幅极不真实的和谐画面:自由派面前泛滥着自由派的观点,素食者得到的素食主义宣传无穷无尽,极端右翼分子面前总是站着极端右翼人群。脸书、推特小心翼翼地守护着人们的思想领地,试图让人们避免遭受持异议者的冒犯或冲击。

  社交平台上的话语争夺与议程控制,最终导致蜂群思维流行,从而一步步推向或混乱或专断的两大极端状态。蜂群思维意味着没有强制的中心控制。它的神奇在于,看似没有一只蜜蜂被控制,但却有一只看不见的手,一只从大量愚钝的成员背后伸出的手,控制着整个蜂群。从这个意义来说,脸书貌似达成了共识,但却是一种虚构的共识,并非真实存在。这种共识没有让这个世界融为一体,反而更加四分五裂,进而引发马克·里拉所批判的“伪”

  垄断的背后,是“平台巨头肆意侵害用户的隐私权和全面信息知悉权,剥夺用户的信息自由选择权,信息被精准推送、话语权被、观点被引导等成为常态,对用户形成信息茧房、信息孤岛。”

  自动化人工智能壁纸悠悠、智能化是数据治理未来发展的方向。无论是利益的提取和综合,还是权力的操纵与运作,抑或决策的酝酿与输出,所有行为都在互联网、大数据和智能算法的加持下以数字形式即时呈现并精准表达。随着人工智能不断渗透和介入领域,势必引发治理体系的变革、权力结构的重组、形式的更迭以及统治秩序的重构,这些新发展和新变化我们将其称为“AI”。可以说,当数据开始拥有智慧,当治理变得越来越智能,数据治理也就升级进入AI治理的新时代了。

  在AI治理的逻辑推演下,实际上暗含着一种相对悲观的人机关系模式预判。最初,人只是借助人工智能技术介入、影响和参与。此时人是主体,人工智能只是一种技术辅助手段。从人工智能出现到当下,人类一直处于这个阶段。随着人类对人工智能的认可度提高以及人工智能技术与能力的不断提升,人工智能终于突破“奇点”,成为拥有独立意识、自我观念和自主学习与进步的智能类人生物。此时人与“智能人”不分主辅,平等并存,和谐共处。

  伊曼努尔·康德(Immanuel Kant)划分出必然领域和自由领域,后者是人依据理性行事的道德法则,使人区别于万物并拥有价值和尊严,道德实则是自治问题。然而,“智能+”时代,文化企业采用算法进行平台管理,通过设置违禁词、筛查方式使某些内容无法出现在信息流中,一定程度上导致人们做出道德或非道德行为的权利被剥夺,其做出的行为可能是唯一可以做出的行为,使用理性为自身立法的自由被限制,这既是对生命的损耗,也是自我关怀式微的体现。

  新闻信息服务行业在AI时代产生了颠覆性变革,特别是基于大数据与算法的信息生产分发模式某种程度上会加大虚假信息的生产量级与传播广度,从而对人与人之间的信任产生负面影响并引发人际关怀的无序性增加。麻省理工的研究员通过实验发现“虚假新闻比真实新闻传播得更远张元英ai人工智能、更快、更深、更广泛”。究其缘由,其一,“把关人”缺失加大虚假信息的生产与传播。其二,算法操纵下内容分发机制使虚假新闻更容易被大规模分发。(算法根据关注度大量分发、利用网友的同情心博取眼球)在自然人与机器人的关系中,机器人伦理地位模糊还导致着人与智能机器人的关系熵增ai智能机器人真人。AI技术的发展颠覆了道德哲学的传统,智能机器使关于谁或者什么构成一个道德主体的许多根深蒂固的假设受到质疑人工智能壁纸悠悠。

  算法呈现出的歧视现象正使社会公正面临失调,如种族歧视、阶级歧视、性别歧视、价格歧视等,借算法隐藏在AI“客观公正”下的非中立正加深着社会危机。AI时代,基于用户特征分发的社交媒体信息越来越多,减少了用户与观点相左的人的接触,从而使用户逐渐以自我为中心并不断强化个人观点,最终造成两极分化。目前,基于AI技术的内容推荐机制正从、经济、文化三方面加剧着社会的两极分化,内容推荐机制使社会阶层、经济实力背景相同的人更容易聚集在一起,从而为他们提供更多创造财富的机会加剧贫富差距;精英阶层获得信息和知识的速度远快于非精英阶层,随着时间的推移,会加剧知识鸿沟,形成文化领域的两极化。此外,AI时代因文化大数据无序应用而侵犯个人隐私数据引发的社会伦理问题同样不容忽视。如Instagram就曾被指控通过捕捉用户的生物特征数据从而增强其母公司其他产品的面部识别能力。

  目前,国际社会聚焦算法相关的政策法规主要集中在欧美,如欧盟2019年通过的《算法责任与透明治理框架》强调可通过算法问责、提升公众算法意识等措施来进行算法治理;美国通过《算法责任法案》、《算法问责法案》规范算法相关的AI科技伦理问题;联合国发布《机器人伦理初步报告草案》,提出机器人伦理问题的关键既在于机器人应遵守人类社会的道德规范,也在于将道德规范编程到机器人中。

  目前,包括微软、谷歌等国际互联网公司正走在AI研究的前沿,2018年,微软颁布《计算未来——人工智能及其社会角色》,提出人工智能开发应遵循公平、可靠安全、保障隐私、包容、透明、负责六大原则;与此同时,谷歌也提出了AI发展七大原则;此外,谷歌还成立过由经济学、心理学等各领域专家组成的AI道德委员会,表明了国际头部互联网公司在应对AI科技伦理问题时的引领作用。除了微软、谷歌等公司公布的宏观原则外,脸书还开发出了具体的工具以应对AI文化科技伦理问题,如算法工具“Fairness Flow”可以衡量AI系统对特定群体的潜在偏见,当其检测出不公平判断时,会自动做出警告。企业的自我规约不仅有利于解决文化科技伦理隐患,更彰显了企业的社会责任。

  算法、数据隐私与伦理主体问题是公共监督反思的关键。其一是算法透明。2017年,近千名AI专家在FOL倡议下共同签署《阿西洛马人工智能23定律》强调AI的研发要保障透明和判决透明;其二是数据隐私保护。人类有权控制AI系统生成的数据、以及AI系统对个体数据的使用不得剥夺个体自由。其三是伦理主体。《23定律》强调AI系统的设计者有义务为AI系统塑造道德观念;AI系统应与人类价值观一致;AI系统保障的应是全人类的利益而非某个国家或组织的利益。此外,IEEE颁布的《人工智能设计的伦理准则 2.0》和俄罗斯自治科研组织出台的《机器人学与人工智能示范公约》等准则和条约中,也表达了与《23定律》相一致的伦理主体观点。

  花宝的提示:这一模块的内容可能会有些多,但是仔细来看的话,每个小点下面都是包含了一个小的专题,比如新闻学的小专题,同时里面会有许多案例,大家可以适当摘取。

  人工智能技术的应用改变了传统的新闻制作流程,不仅扩展了新闻报道的广度,而且增强了新闻制作的时效性。首先,在新闻采集中,一方面,人工智能加快了新闻采集的速度,在地震突发新闻报道中,机器人可以自动编辑发布新闻稿,短时间内能采集到速报参数、震中地形、热力人口、周边环境等各项数据。人工智能与新闻报道的结合,增强了信息采集的时效性,还拓展了新闻报道的空间范围,实现了时空双重维度的延伸。

  其次,在新闻生产过程中,智能写作提高了生产效率。人工智能作为人的感官延伸,在一定程度上突破了局限,在新闻生产环节,机器人记者不仅可以快速抓取信息材料中的文字,还可以利用大数据网络智能抓取相应的图片,从而提高新闻写作效率,减少人工报道错误。在发现报道数据可能存在异常时,还能够提醒记者注意,为记者进行深度采写留足时间和空间。在新闻呈现方面,临场化体验感得到强化。

  最后,就新闻分发而言,算法推荐增强了媒体黏性。人工智能技术渗透到新闻制作过程的每个环节,人工智能促使算法机制兴起,新闻媒体可以分析行为,采用信息聚合技术和协同过滤技术,实现智能媒体时代的个性化新闻推送和新闻定制,实现用户思维向场景思维转变,增强用户对新闻媒体的黏性。

  人工智能的应用改变了传统的线性新闻生产模式,促进了对话新闻模式的出现。机器与人的互动应答增强了新闻的互动性,语音搜索、AI播报新闻等方式将新闻信息的选择权交到受众手中,提高了新闻信息的传抵率。人民日报的“小端”在全国报道中起到了互动视听的作用;百度度秘机器人解说上线,同步解说奥运篮球赛事,点对点的直播对话独特服务颠覆了传统的传播模式。

  人工智能的应用优化了原有的把关模式,信息识别精准优化。将人工智能引入新闻审查模式,不仅可以实现对“关键词”的识别,还可以对“情绪”“”进行识别。微信中“辟谣助手”小程序能够将个人传输信息与数据库中的信息比对,将错误信息核实报道传送给误信谣言的人,帮助其甄别信息的真伪。

  把关形式在人工智能的帮助下,更多地呈现“软把控”的特点,基于人工智能的把关不仅可以增强把关的时效性,还可以更加精准地识别谣言。纽约时报借助人工智能技术加强语义辨识与评论区管理,既通过分类检索简化记者的工作流程,又能帮助读者快速识别有害评论。

  人工智能技术开启了人机结合的理念革新,在人机对话机制中实现功能互补和价值匹配,无人机、传感器的应用扩大了新闻信源,机器人写作加快了新闻生产速度,大数据、云计算实现了新闻可视化呈现,算法分发有利于新闻信息抵达最广泛的受众。人工智能结合场景因素进行智能匹配,制作符合用户需求的新闻,从而与用户展开双向交互式的共动模式。

  人工智能技术加速了不同行业间的合作与融合。首先,智能技术对内容生产和消费全链条的重构推动了新闻业与科技行业的跨界合作,媒体融合加速,寻求与机构跨界融合,有利于优化资源配置。其次,媒体组织内部各部门之间进行深层次融合,大数据采集、智能生成都将打破壁垒,实现资源之间的深层次融合,提高媒介资源利用率,媒体机构与其他行业跨行业合作,如央视打造的《数说命运共同体》,由央视与亿赞普公司合作,进行优势互补,提高了产品质量。

  人工智能介入新闻媒体组织中,加快了资本与技术的双向流动,促进了人才升级,激发了“黑客记者”的创造性。“黑客记者”一词是由尼基·厄舍在《互动新闻》中提出的。这是一个集程序员和记者于一体的新职业。从中国的新闻实践来看,记者职业向数据收集和挖掘、数据分析和呈现的转变是“黑客记者”崛起背景下的策略。

  人工智能技术主要依靠数据挖掘来准确描述用户的特征。通过对数据进行详尽分析,能准确地识别受众群的构成和特点,依据用户喜好写作新闻内容,并由此调整新闻分发的侧重点,从而增强用户黏性。新闻推荐与“信息茧房”相伴而生微软人工智能叫什么,而用户往往将其归因于新闻媒体,但“信息茧房”是由算法技术本身推送,并由用户主动的选择性接触形成的。而新闻媒介只是信息的提供者微软人工智能叫什么,不是信息选择主体,更不是信息时代造成用户获知悖论的原罪。正如舍恩伯格所说,记忆成为常态,遗忘成为例外,我们都住进了圆形监狱。在人工智能时代,如何保护数据、如何评估风险、如何防止数据泄露以及如何保护用户隐私都是值得思考的问题。

  由于智能机器人是按照事先设置好的模板嵌套信息的,因此内容呈现同质化、模式化、浅薄化的倾向。机器人并不具备新闻编辑的主观能动性,不能现场报道,写作内容缺乏人文关怀的感性因素,也无法写作新闻评论,因而无法与公众产生情感共鸣。正如彭兰所说,在机器和算法流行的时代,人们需要坚持自己的价值观,应该始终把人文关怀放在首位。机器人写作并不能完成深度报道,目前只适用于一些标准化和结构化程度高的领域,如财经新闻、体育新闻等时效性强、数据多的新闻报道中,对一些复杂的社会性事件无法进行深度报道。

  人工智能技术带来多种新闻呈现形式的同时,也加大了新闻媒体对信息的审查难度。与以往的文字识别不同,面对视频动画、虚拟视像等新闻产品,新闻媒体的把关将更难识别。依靠机器算法的检验,新闻价值规律让位给用户利益。用户被限制在自己的“茧房”里,这减少了他们对公共事务的关注和参与。社会被划分为不同的细分群体,无法形成沟通和交流,使得引导难度加大。在目前的技术条件下,算法推荐技术无法理解新闻价值和党性原则。一味迎合受众口味,如果没有干预和指导,真正重要的新闻就会被边缘化,陷入泛娱乐化和低俗的漩涡,导致新闻失衡。

  人工智能解放了新闻从业人员,但也带来了新闻从业人员的角色危机。一些数据采集、剪辑、采写的工作岗位将被取代,传统媒体人纷纷出走、弃报触网的现象就是新闻业受到冲击的表现。尽管国家出台了加强校企合作项目的政策,高校也开设了人工智能相关专业,但同时具备人工智能和新闻传播知识的人才仍然短缺。因此,在未来强人工智能时代到来之前,记者应该扮演什么样的角色值得深思。

  “要改革完善重大疫情防控救治体系……要鼓励运用大数据、人工智能张元英ai人工智能、云计算等数字技术,在疫情监测分析、病毒溯源、防控救治、资源调配等方面更好发挥支撑作用。”

  媒介化社会中ai智能机器人真人,以移动端、PC端等传播媒介构成的网络系统正日益成为人们工作、生活和学习的核心场域,人们接收新闻信息的渠道已离不开网络媒介的干预。在新冠疫情报道中,媒介将算法输入平台机器内并赋予其一系列指令和步骤,用最直观人工智能壁纸悠悠、最清晰的数据和指令对疫情信息进行数据分析,体现出其对算法技术极强的依赖性。在新闻收受主体浏览读取疫情新闻期间,具有代表性的数据化的个体属性被有效识别和记录,随之被平台获取并反馈给算法数据库储存。疫情下异空间用户与基于算法推荐的新闻内容高度契合,使疫情新闻信息得以更加精准化传播。

  伴随着大数据和算法技术下疫情信息的实时汇总与同步更新,媒介与公众的连接力和感知力得到空前加强。通过媒介和互联网的体现引导与具身互动,个人身体信息演进为数据形式的分化归类,新冠疫情期间,人脸识别测温平板、全国健康码、大数据行程卡、新冠肺炎及类似疾病AI自测系统等便属于智能终端利用算法推荐与深度“黏合”的产物。这些由智能终端操控的系统和后台,将媒介终端与人类身体紧密地连接交织,形成身体的数字化、数据化。当这些数据被算法推荐赋予“感知功能”时,便可以代表公众的生活状况与身体健康程度,达到了“具身互动”的完美呈现。

  新冠疫情的蔓延与反复,对传媒业和社会信息系统都产生了深刻影响,人群隔离效应促成了智能防治理念的产生。所谓智能防治,即依托数字化防疫平台及智能化防疫终端,打造出高效率、高质量、严监控、严防治的重大疫情防控救治体系。首先,算法推荐对实时更新的疫情发展的在线仿真模拟。在疫情防控中,无论是媒介终端以数字化体现的公众健康状况,还是医院后台系统实时记录的患者健康数据,都可以通过公众数据关联计算出一次传染源、二次密接体、多次密接体与其他普通人群在时空上的吻合。算法通过模型建构对疫情发展进行模拟预演,可以使处于隔离状态下的公众及时了解病毒的传播路径和传播程度,更加主动配合政府的疫情防控工作。

  治理体系上,算法推荐促成了健康治理的统筹协同与全球治理。数据连接的普遍性和全方位,将健康治理的领域拓展为云世界。健康治理涵盖了从人口健康、区域健康到生态社会系统健康的诸多范式,强调从生理到社会的全健康内涵、从到生态的全健康领域人工智能壁纸悠悠、从个体到国家乃至全球的全健康层次的综合性健康管理。在算法推荐的加持下,建构基于数据管理、决策与创新的调控机制,并将健康治理推到协同治理、多元共治与复合治理的善治阶段,实现健康治理由个体国家内循环体系向多边框架下全球健康治理联盟的转变。

  疫情下,媒介的智能推送大致可以归纳为基于疫情信息的推荐、基于用户标签的推荐及基于社会化的推荐。于媒介本身而言,新冠疫情下的算法推荐已经成为各媒介平台分发信息的重要手段之一,其加剧的信息传播同向化、同质化现象,直接导致信息茧房的泛化。可以说,全球媒体正越来越趋向于使用同一主题、框架和语境,通过议程同化的手段支配。

  另外,信息茧房的泛化亦会扩大个体与个体、个体与社会之间的信息鸿沟,导致健康信息获取的不对等。不同性别、地位、学历、性格的人会收到不同推荐机制下的信息推送。这些信息的渠道来源各异、健康价值不等,往往越注重健康的人越可能收到疫情防护信息,越不关注疫情的人消息越闭塞。

  从网络技术对网民的赋权和关系的连接,到平台算法规则的确立,不同来源的疫情信息集合成庞大的数据库,推送流量大、点击率高微软人工智能叫什么、讨论范围广的信息成为众多网媒的首选。由人工编程产生的算法公式,难以避免成为达到某种目的而生产的工具,一些大的社会媒体和文化企业会因为追求自身利益和流量,无视新闻生产和传播过程中需要遵守的准则。在监管失衡下,互联网推送的劣质信息一再泛滥,同时还带给受众亚健康的价值观,“流量焦虑”和“算法焦虑”成为算法推荐在新冠疫情报道中的一大弊端。

  新冠疫情下,算法推荐一方面收编了海量的个人健康信息数据和个人对疫情信息的关注偏好,通过数据分析完成新闻生产。另一方面,新冠疫情期间出现的数据作为交易资源进行流通的现象,无疑是用户隐私“售卖”的表现。更为甚者是算法推荐中技术的不可控制行为带来的信息安全威胁,即自主算法通过深度学习功能,将用户个人的数据信息进行“自主地”排列组合,以达到“窥视”的实际效果。

  算法以海量的数据收集作为建模依据,数据库越庞大,算法推荐的权力和效能也越强大。在智能终端时代,社会公众的兴趣爱好、购买记录、健康行为等都会通过网络形成数据的集中,使得少数资本可以在第一时间获得数据垄断,从而产生算法霸权——算法霸权使得部分媒介利用先进的数据存储系统和算法技术平台,按照自身的利益诉求控制数据的曝光,主观制造虚假信息和隐瞒部分事实,给社会带来错误的、非理性的公众导向。此外,算法一度作为资本的技术,参与诸多智能政务系统的后台程序和管理,在这种情况下,政府掌握的公众健康数据和公共导向很可能是在资本充分权衡自身利益诉求后的数据公开和算法公开。这也使得数据垄断下的算法霸权深刻影响着世界。霸权主人的话语权增强,带来的是全球健康治理秩序的动荡。

  通过提高算法的个体匹配度,使媒介在推荐健康信息时更加能锁定针对性用户,传播用户需要的信息。对此,可以分两步来进行:第一步,优化深度算法学习内容,壁垒。媒介现有的智能推送都是基于用户标签和针对用户喜好的信息选择,倘若深度算法学习内容能实现抢先预测,甚至是信息扩展,给用户推荐异质健康信息,则能利用技术的革新冲破内容极化现象带来的信息茧房桎梏。第二步,强化人文精神价值,塑造价值理性。

  在突发公共卫生事件来势迅猛、社会消息真假未辨来源不明、民众心理恐慌不安的多重情境下,用主流价值治理“流量焦虑”和“算法焦虑”,通过“党媒算法”实现海量内容与个性化需求的有效匹配,成为健康传播中刻不容缓的问题。媒介通过优化内容推荐和导向的审核模式,用“党媒算法”打造主流价值,使更多能体现主流价值观和主流导向的防疫讯息和抗疫事迹注入内容池,促进疫情下的公众健康传播。

  科学技术的发展往往与风险相伴而行,算法推荐在为疫情报道创造广阔空间的同时,同样会在健康传播中产生侵犯个人隐私、挑战法律规制和道德伦理底线等问题。因此,面对算法对信息“自由”扩散的隐患,要通过深入研究算法推荐在其应用过程中的建设性、风险性和不可控性,不断完善针对算法本身的法制规范体系,健全伦理道德机制,强化网络平台自律。

  虽然中国算法推荐模型已跻身于世界算法技术前列,但公众健康数据的信息化建设仍属于“碎片化”阶段,这种数据和技术的不对等导致算法推荐在进行测量和计算时依旧存在误差。基于此,为推动全球疫情防控工作,中国算法推荐需要在促进健康传播的同时,具备全球性视野和前瞻性眼光,提升健康治理能力,以人民健康为中心深化健康中国战略。

  著名的监控专家帕克(John Parker)指出:“20世纪80年代,技术的蓬勃发展把我们带进了信息时代,同时也让监控变成了一张几乎无人可以逃脱的天罗地网。”熟人社会对应人眼,肉眼能看到的范围极其有限;陌生人社会对应电子眼,仍然存在一些电子眼看不到的地方;数字化社会则对应“上帝之眼”的凝视,个人隐私已经无处遁形。

  在数字化隐私社会,我们的隐私生活被转化为各种各样的数字信息,即隐私生活数字化。数字化技术主要通过三种方式获取和转化个人隐私:一是通过由智能家居、随身携带的智能设备、无处不在的智能监控等构成的物联网,可以将个人在现实生活中的言行举止数字化;二是通过覆盖全球的互联网,网络追踪技术可以将个人在网络生活中的言行举止数字化;三是在由商家、社交媒体等搭建的网络平台上,其应用程序的信息搜集功能可以将个人的消费信息和社交信息数字化。边沁(Jeremy Bentham)当年设想的封闭式圆形监狱,到福柯(Michel Foucault)那里升级成全景式敞视监狱,而在数字化时代则进一步升级为“全民监视”

  根据尼森鲍姆的语境完整性理论,隐私是具有语境性的,可能在特定语境下成为隐私,在其他语境下又不构成隐私。因此,语境转换可能导致一种新的隐私侵权方式,即某些情况下在行为现场向在场者敞开并不构成隐私侵权,但在离开现场语境时,向并不在场的他者敞开却有可能构成隐私侵权。我们可以称此为“语境转换导致的隐私越位”。在数字化技术广泛应用前,这种隐私越位主要体现为私人生活中的隐私背叛,即将只允许在一定范围内传播的隐私信息泄露给范围之外的人,甚至是公众。在数字化技术兴起之后,隐私越位大量呈现为公共领域中的隐私越位。

  大数据技术专家迈尔-舍恩伯格认为,大数据分析的认识对象不是因果性关系,而是相关性关系,大数据技术可以通过特定的算法找到不同事物之间的相关性。“通过给我们找到一个现象的良好的关联物,相关关系可以帮助我们捕捉现在和预测未来。”

  在大数据时代,隐私数字化的功用不仅在于深度挖掘隐私,而且在于广泛应用隐私。对于数字隐私最为重要的应用就是以行为预测为基础的智能干预。在知晓个人内在的情感和价值取向的基础上,人工智能可以对行为者未来的行为倾向进行精准预测,将隐私决策等从人类自身抽离出来移交给外在的人工智能,可能导致人工智能对人的全面反噬。一方面,人工智能决策内含的“信息茧房”将导致世界单一化和个人发展停滞。行为预测通常是基于个人过去的海量行为预测个人将来的行为选择。舍因伯格指出:“我们的数字表征将永远把我们拴在我们过去所有的行为上,实际上使得我们不可能从中逃脱。”另一方面,全方位的人工智能代替将导致全面的人性衰退。当人工智能能够代替个人进行所有的行为选择和活动时,个人就不需要运用自己的自由意志进行行为选择,也不需要发展自己的身心能力进行活动人工智能壁纸悠悠。

  宾夕法尼亚大学蔡天文教授指出:“数据隐私问题的关键在于如何找到既能保障隐私又能让人工智能进行准确数据分析的方法。实现任何一个目标都需要付出一定的代价。如果以技术发展为首要目标,隐私本身就是代价;而如果以保护隐私为首要目标,代价就是损失数据分析的准确性。因此,需要找到一种方式去量化隐私的成本,帮助实现隐私与数据准确性之间的平衡。”这种适度平衡最终体现为隐私数字化的伦理规制,这种规制需要从观念、制度和技术三个方面进行。

  在数字化隐私社会,个人隐私生活的主要矛盾发生了变化:个人自由与外在控制之间的冲突已经让位给了隐私保护与生活便利之间的冲突。无论是19世纪由公共媒体公开窥探名人隐私生活引发的隐私危机,还是20世纪由多国政府秘密收集公民私人信息引发的隐私危机,都体现出一个重要特点:隐私危机的本质在于个人自由与外在控制的冲突,结果往往是个人的隐私权益受到外在的侵犯人工智能壁纸悠悠。

  数字化时代的社会隐私制度必须从两个方面来维护个人的隐私权利。一方面要坚守社会底线隐私。所谓底线隐私就是最基本的隐私,就是个人一旦失去就无法形成完整个性的隐私。理解底线隐私时可以参考德国法律界定的“亲密领域”。另一方面要支持个人隐私自由。社会隐私制度应该支持基于个体意愿的、合理的隐私让渡行为,允许隐私主体自由行使自己的隐私权,以同意的方式决定向谁让渡隐私、让渡多少隐私、如何让渡隐私等。

  正如技术专家所说:“如果技术能剥夺隐私,那么技术一定也能保护隐私。”隐私的数字化过程,一定是包含特定的价值预设并且实现着特定价值的过程。一旦我们重新思考数字化技术原有的价值预设,并且将新的、符合社会期待的价值观融入数字化技术之中,那么我们完全可能改变隐私数字化的道德后果。从目前来看,改变数字化技术道德因素的渠道主要有两个:一个是美国法学家莱斯格等提出的“算法道德化”,即重新确认数字化技术架构的价值基础——决定网络空间自由与规制程度的东西是代码。因此,要规制网络空间,最需要考虑的问题是我们如何基于道德来编写代码,编制算法。返回搜狐,查看更多

人工智能人工智能壁纸悠悠张元英ai人工智能微软人工智能叫什么ai智能机器

2023-08-20Aix XinLe0

人工智能壁纸悠悠张元英ai人工智能微软人工智能叫什么ai智能机器人真人  前言:如果说技术(上)篇偏向于宏观的背景描述,那么下篇我希望给大家带来的是直接能拿到卷子上的内容,那我们就直接进入正题啦…

创新应用创新声卡官网查询中小学科技创新大赛创新智能家居产品互联网创新

2023-08-20Aix XinLe0

创新声卡官网查询中小学科技创新大赛创新智能家居产品互联网创新  (一)前不久,神舟十三号载人飞船采用自主快速交会对接模式成功对接于天和核心舱径向端口互联网创新,3名航天员成功进驻天和核心舱,开始中国迄今时间最长的载人飞行…

创新应用互联网创新创业大赛创新技法举例说明书

2023-08-20Aix XinLe0

互联网创新创业大赛创新技法举例说明书  教育部官网最新发布的《2022-2025年度的面向中小学生的全国性竞赛活动名单》,这份名单在坊间也被称为竞赛  “白名单”竞赛是教育部每年公布的面向6-18岁学生的竞赛活动创新技法举例说明书…

创新应用创新金属科技 官网创新方法的应用举例创新思维的名人事例创新平

2023-08-20Aix XinLe0

创新金属科技 官网创新方法的应用举例创新思维的名人事例创新平台包括哪些  审计方法由过去对会计资料的详细检查转变为以评价内部控制系统为基础的抽样方法,审计技术从过去以手工操作对会计凭证、账簿创新金属科技 官网创新金属科技 官网创新思维的名人事例创新平台包括哪些、报表进行审查,发展到对数据系统进行审计…

创新应用创新管理案例分析创新点包括哪些

2023-08-20Aix XinLe0

创新管理案例分析创新点包括哪些  提到创新,大家往往会把它和技术联系在一起,就是技术创新,创新通常意义上是技术概念,但是经济学家熊彼特把创新定义成了一种经济概念,而不是单纯的技术概念,它区别于我们通常说的技术发明,而是把现代的技术革新引入经济组织,形成一种新的经济能力…