近来,随着生成式人工智能的高速发展,AIGC(人工智能生产内容)正越来越多地出现在我们的视野中。人工智能工具得到大规模应用固然一则以喜,而伴随着发展出现的不和谐声音,同样一则以惧。此前,AI图片导致科研论文撤稿的新闻已经揭开了AIGC滥用问题的一角,而短视频平台上不时出现的“AI假消息”更让人防不胜防。难怪有人说,深伪(Deepfake)已经成为AI发展的“达摩克利斯之剑”,权力与危机并存,必须遏制其“野蛮生长”,不被滥用。
诚然,AI为人们的生活和工作都带来了极大的便利。即便是对代码一窍不通的普通人,也能轻松驾驭AI技术“为我所用”,诸如豆包、KIMI、ChatGPT等工具,都为整个社会生产力的解放带来质变,使得本需要团队花费数周完成的项目,最终只需要一个人就能在短时间内快速完成,极大地节省了成本和缩短制作周期。商用AI视频也已经越来越多地出现在视频广告当中。
然而,互联网有一句古早的俚语“无图无真相”,现在即便“有图”,也不一定是真相。AIGC的拟真技术,已经超过普通人的辨别能力了,这就意味着绝大多数人都可能会被欺骗。
在科学界,《自然》杂志的新闻栏目就对一项“AI生成高分辨率的显微图像”的技术研究表示担忧,未来学术图像可能愈加难以辨别真伪。这种担忧并非无稽之谈,据英国《泰晤士高等教育报》的数据表明,西方国家高校2023-2024学年期间的作业/论文疑似AI作弊的事件就足足增长了15倍。可见AI在做伪证这方面,恰巧成为“心怀不轨”之人的帮凶。
更有心之人,可以专门训练制造争议性话题的AI大模型,利用争议以获得流量来牟利。再进一步来讲,AIGC制造的谣言,将会极大地增加人类接收的信息中的“噪音”占比,由于人们不再能分辨真伪,交流本身就不再有意义,人与人之间的信任桥梁也将崩塌。
AIGC并非一头不可阻挡的“洪水猛兽”,通过一系列的治理,想必滥用问题必将会得到遏制——正如它的前辈“互联网”一样。
首先,AI技术公司理应承担首要责任。一方面,当前,顶尖的AI技术都把控在头部的科技公司,诸如字节、百度、腾讯等。这些公司本身拥有生成式人工智能领域最好的技术资源,理应秉持“科技向善”的理念,通过技术藩篱的设置,打击深伪,确保风清气正的网络环境。另一方面,这些大公司往往也借由大数据技术快速在AI领域崛起,而大数据来自他们自有的信息传播平台,而平台是通过信息传播,带来流量进而换取广告投放来进行盈利的。倘若平台中充斥着大量AIGC制造的不实信息,势必会影响平台自身的口碑,造成经营损失。因此,这些科技巨头应当在不断提高自生AIGC技术手段之余,确保其AI工具不被滥用,维护平台调性。
其次,人不能揪着自己的头发脱离地面。事实证明,仅靠道德公约去约束用户滥用AIGC技术的行为是行不通的。因此,不论是企业还是个人,最终都需要作为第三方的政府进行强有力的监管和督促。在法律层面上,我们需要尽快厘清AIGC技术带来的新问题边界,尤其需要加强对“滥用AIGC制造虚假信息并加以传播”的追责问题制定标准并督促平台加快完善相关条理和技术。而从技术层面上来讲,区块链技术作为一门底层技术,若能尽快铺设在互联网之中,一切信息的传播路径都将变得有迹可循,这将会使谣言的溯源和识别变得更加高效且准确。此外,政府还需要加快解决“数字鸿沟”的问题,快速普及AIGC常识以及滥用AIGC的后果,建构正确的认知,防患于未然。
技术本身并没是非对错之分,人工智能技术亦是如此,人们如何使用AI技术才有对错之分。历史经验告诉我们,一切的技术普及之初,往往都会面临一定程度的滥用,一味遏制技术发展并不可取,AI的时代必将到来,防止被滥用,需要多方协力并进,搭建AIGC良性发展生态。
PS:如果遇到您遇到有关于百科类创建编辑修改的相关疑难问题,欢迎留言咨询,百科参考网及时为您无偿免费解答。转转请注明出处:https://www.shaoshai.com/4607.html