咨询服务热线:019-50736360
发布日期:2023-11-16 12:33:02阅读: 次
该模型叫做GPT-2。
该模型叫做GPT-2。简朴归纳综合而言GPT-2就是一个文字发生器。把文字输入这个AI系统可以是只言片语也可以是大段文字然后让法式凭据它的判断接下来应该怎么写。
AI进军新闻界许多人都早有耳闻。
“你能看到的都是别人想让你看到的!”
这句话准确地归纳综合了互联网时代的算法推荐机制。
第一段文字是英国著名作家乔治·奥维尔(George Orwell)的传世经典政治荒唐讥笑小说《1984》开篇第一句话。
“清华学姐事件”为什么会火?那是因为“有人”想让你瞥见!
舆论能被轻易利用其中固然不乏一些“好事之徒”在背后推波助澜网友的转评、人肉、泄愤情绪也起到了煽风焚烧的作用但人工智能(AI)同样也难辞其咎。
简朴来说“社会性死亡”就是指个体遭遇网络暴力后陷入社来往来被阻断、社会声誉被倾轧逆境。它导致的效果是当事人正常生活遭受极大震荡蒙受“庞大的身心伤害”。
例如你看了一条买房的新闻之后平台便开始给你推荐与买房相关的内容你看的越多推荐的也就越精准。久而久之你所能接触到的信息只会集中在自己所感兴趣的领域效果就是把自己的生活桎梏于像蚕茧一般的“茧房”中。
这不禁让人感受到舆论生态之庞大也让人为此毛骨悚然。
第二段文字是把第一段文字输入GPT2后这个AI系统自动续写的。仅输入一句话GPT2显然就准确的抓住了乔治·奥维尔《1984》的荒唐、压抑、恐惧和反乌托邦的笔调洋洋洒洒的续写起来。
虽然GPT2未投入市场使用可是有一些AI写手却在造谣门路上越走越远甚至曾滋扰过英国公投和法国大选。
可令人讥笑的是恰恰是此种内容往往为推荐算法所青睐大量推荐给读者以获得所谓的高流量。
有人曾对它举行过一些实验例如你能从上述两段文字中品味出什么区别:
“四月间天气严寒晴朗钟敲了十三下。”
而这样的案例还不在少数!为此不少科技大佬都果然警告。
2019年头开源社区OpenAI开发了一个“AI造假写手”由于被认为“太危险”而决议差池外完整公然。厥后这款AI模型还公布了更全新更强大的版本。
据悉它实力强大到甚至令业内人士闻风丧胆。
在推文中马斯克着重强调了应该对匿名机械人群体重点关注。它是一种自主法式会在社交媒体中转发特定的推文并推广至整个平台或是散布一些未经证实的消息。
BBC和彭博早就引进了AI写手中国《人民日报》的“小融”、《广州日报》的“阿同”也纷纷上岗履新。我们现在看到的许多新闻或许就是出自这些“AI小编”它们不仅能自动生成内容甚至还能抢占独家。
已往一两年时间内在媒体行业以致整个文字写作和艺术创作的领域AI已经在发挥更深刻和全面的影响。
AI“造谣”让一小我私家“社会性死亡”就在一瞬间
雪崩的时候没有一片雪花是无辜的。
如若唯“眼球”密切追随、让算法主导一切优质的内容、理性的辨析就可能被边缘化下一个被“社会性死亡”的也可能就是你我。
作为“AI威胁论”的信奉者马斯克关于“AI终将灭绝人类”的灰心论调或许有些偏激但这位科技大佬的对于AI操控舆论的担忧却不无原理。
AI写手是依赖算法和代码实现的。
但算法和代码的设计都依赖编程人员的判断与选择因此极容易被利益团体利用。
2019年特斯拉CEO埃隆· 马斯克就在Twitter上发了颇具争议的推文称“社交媒体将很快被先进的AI操控”而且连发两条对人们加以“警告”。
“清华学姐事件”能迅速登上热搜引发广发关注恐怕与算法推荐也不无关联。
它借助网友的“正义感”通过制造矛盾冲突令舆论风向大反转最终导致“清华学姐”被社会性死亡。
人人都是自媒体的时代网络上充斥了大量未经证实、断章取义、夸大其词、不卖力任、充满情绪化和偏激看法的信息内容为的只是混淆舆论视听刺激群众G点博取更多眼球。
如果说只凭据用户的兴趣推荐内容会导致“信息茧房”现象那么在算法机制下劣质信息、标题党、广告党甚至虚假信息充斥网络则让网民怨。
本文来源:泛亚电竞-www.zhbshd88.com