
▲与过去的谣言不同,今天,AI用于创建虚假信息,这更有害。图片/IC“自助媒体”的图片发布了虚假信息,扭曲事实,误导了公众和其他混乱,这些信息集中在纠正中。根据不断创建干净明亮的网络空间。重要的内容之一是纠正人工智能(AI)生产合成技术,模仿他人或在人们的社会和生计领域中提供虚假信息,并欺骗公众。近年来,AI技术的新兴发展已深刻地改变了信息传播的方式,但它也为使用它来开发虚假信息提供了新的问题。说有效纠正AI中的错误信息达到了紧迫的NA点并不夸张。目前,从现实生活中的名人丑闻的综合视频到disseminatin的惊人社交紧急情况的制作g伪科学内容在专业领域,无处不在。几天前,媒体报道说,7月20日,关于“伊坎的一艘游轮,湖北省被包裹并掉入水中”,引起了人们的关注。验证后,它证实是使用AI技术制作的假新闻,甚至是假AI处理的照片以增强混乱。与以前的传播生态系统中的错误信息相比,AI错误信息的损害更适合关注。 AI产生的内容是非常现实的,普通人常常发现很难在裸露的眼睛和常识中识别出真实性,这更具误导性。尤其是在公共安全和人们的经济安全等主要领域,引起正常生产和生活的社会恐慌和影响非常容易。此外,AI的成本较低,效率很高。大规模misinf的迅速传播不仅要认真对待网络完整性的基础,而且还挤压了高质量内容的生活空间,从而导致“赚钱赚钱”,并阻碍了互联网行业的健康发展。控制AI的错误信息面临着许多真正的挑战。随着技术的进步,AI的错误信息继续被绑定和升级到形成和内容,并且具有真实信息的边界变得更加模糊。它制作了通常无法做到的传统信息筛选方法。此外,没有给予资源和责任监控更加困难,更及时,没有给予有效的惩罚。因此,面对AI错误信息的严重挑战,我们应该关注资源管理,并采取许多方法来修复和协调管理。这项特殊的更正运动清楚地指出,注释机制将有所改善,并且诸如Informa注释之类的绩效设置来源,人工产生的智力和合成身份是有效的 - 优化。在发布信息的过程中,它在已知位置提供了标签选项,以促进用户执行相应的注释身份。这是原产管理管理的评论部分。应当指出的是,作为目前发布信息的重要实体,“自我媒体”应负责防止AI的错误信息。这不仅是发布方法的标准,而且是合成内容的标准。它有助于提高用户的警惕。但是应该注意的是,相关的注释要求实际上已经存在,迄今为止,最重要的是鼓励平台加强其实施。该更正活动专门要求在没有标记的情况下标记的信息不应输入算法内容的池内容中。如果这一点可以严格限制提到,不可避免地释放绑定的更强的强度。此外,AI的“能力”能够纠正信息变得更加强大,它还需要平台来加强相应的技术研究和开发,有效地提高了“技术辩护”的能力,以区分和干扰AI的误导,压缩其散布空间,从源头上,并取消了出版商的性欲。同时,相关部门有必要注意AI生成的信息对信息的普通公共教育,并提高社会预防的认识和能力。消除AI的错误信息的关键是坚持不懈。从长远来看,除了标准化“自我媒体”操作之外,有必要丢失AI的错误信息,以丢失空间来引起问题并做出长期努力,以完全收集联合努力,平台,行业协会和其他政党。以这一特殊行动为机会,值得期待将AI错误信息从“雷霆罢工”推进到标准化的机构预防和防御。编辑 / Xu Qiuying校对 / WU Xingfa