德国考虑封杀 ChatGPT,法国、爱尔兰、西班牙也或将插手,欧洲为何「围剿」ChatGPT?
当地时间4月3日,据德国《商报》报道,德国数据专员乌尔里希•凯尔伯(Ulrich Kelber)暗示,德国可能会效仿意大利,以数据安全方面的担忧为由,屏蔽OpenAI的聊天机器人ChatGPT。凯尔伯称,“原则上,此类步履在德国也是可能发生的。”但他强调,这将属于国家管辖范围。凯尔伯没有概述目前采纳此类步履的任何打算,但他透露,德国已请求意大利就其临时禁令提供更多信息。而除了德国之外,法国、爱尔兰、西班牙等欧洲国家也开始考虑对人工智能(AI)采纳更严格的监管。
除了ChatGPT外,法令专家称,谷歌的Bard可能也会受到审查,不外鉴于谷歌持久与监管机构周旋的经验,该公司可能已经考虑到这一点。
欧洲为何打响封禁ChatGPT的第一枪?有分析认为,这背后的考量与欧盟近年来对美国科技公司的反垄断冲击息息相关。近年来,美国科技巨头在欧洲受到了一系列冲击,在欧盟对谷歌、苹果、Facebook、亚马逊和微软的重大指控中,此中就包罗滥用个人数据、扼杀竞争等。
分析认为,欧盟这边原先就对美国科技巨头攫取用户数据大获其利十分不满,再加上ChatGPT的大范围部署很可能会违反欧盟的竞争法,收紧对以ChatGPT为代表的AI东西的监管也就层见迭出了。 我觉得这东西的价值就是完爆grammarly 和一些翻译软件,至少在我的专业领域考古学它啥也干不了。
我想到的第一个用途是让他给我找相关论文,给我给了一堆,最后没一个能找到的,全是瞎编的,问题是编的还有模有样的,比如我让他找东亚草原的体质人类学论文 他给我的那些作者确实都是搞这个方向的,没有一篇我见过的,我一下惊了 自己明明把这些大拿的researchgate都好好看过,怎么这么多我都没听说过,在那些期刊网站一找,奥,原来是你编的。
我又问他哪些北美的教授搞创伤分析的,想的看看phd陶瓷的可能性,给出来的教授名字我也都基本知道,可问题大多数都不是搞这个方向的,有的是搞同位素的有的搞古病理的。我最后问他我导师是研究啥的,他说她搞的是北美北极圈考古,还曾参与过加拿大法证研究乱七八糟的(全错)。
我又想这个能不能帮你快速总结一篇论文,试了几篇读过多遍的论文,它的精确性可以但是准确性不行。啥意思呢,比如这篇论文两个大重点AB,下面是两个小重点ab,它会把a或者b给你好好地叙述出来,但是基本忽略本篇的大框架AB。而且它的总结里一半是废话文学。
我还试过让它教我怎么用arcgis画图,说了一堆步骤搞到一半搞不下去了,因为有几个选项在arcgis上就不存在。
积极的地方就是帮你重新组织语言和润色,确实比grammarly强太多了。还有翻译,先试了下中文翻英文,效果可以,又试了试俄语翻中文,问了问懂俄语的教授,也不错。美中不足就是得一小段一小段复制粘贴让它翻,太长了它就报错。
未来打算试试gpt4的数据处理能力怎么样,看看和PAST excel这种传统统计工具比怎么样。
总结:这东西我觉得对大学以前的学生是神,一涉及专业(我不知道别的领域怎么样哈)就开始酒后胡言。如果让小学中学生滥用这个,等到了大学基本就是要接受重拳了。
说这个能完全替代人我也觉得比较扯,就拿考古来说,那还得是人去挖掘收集产生数据,你才有东西来说。考古学家要全坐家里喝着小酒跟他对话唠嗑,那能搞出个啥东西。它对于考古学的意义应该就是节省一些文书工作花费的时间,然后能加强不同语言区之间学者的沟通理解。当然,你愿意用节省下来的时间去干什么那就看个人了。
最后扪心自问发表下自己中加两国穿梭了七年多的想法:你要是觉得中国是固步自封闭关锁国,那加拿大总体处于新石器时代。 经历过互联网初期被美国打的一败涂地的教训之后,欧洲人终于明白了中国在互联网建设初期不惜靠建墙来扶植本土互联网企业的做法才是真正的英明之举。
千鸟在林不如一鸟在手,自己手里的再烂,也好过压根没有
ChatGPT一出来,一众网友就开始嘲笑,百度在哪?阿里在哪?腾讯在哪?
文心一言出来以来,大家嘲笑得更欢了。
就是没人好好想想,如果我们连百度阿里腾讯都没有怎么办?如果我们连文心一言都拿不出来怎么办?
现在只是被嘲笑在赛场上打不过对手,可要是你连有资格上场比赛的队伍都没有呢?
国足有在世界杯上输球的资格吗? 为什么Yann lecun(杨立昆)对chatGPT持否定态度?上面是十天前的一个回答,放到这里也颇为适用。
里面提了三点。
一是有效数据是要钱的,越有效,越及时的数据则越值钱,类似谷歌百度这类的大公司们实际上是在白嫖免费数据。数据供应者是不甘心被一直白嫖的。
二是即便有超级AI,将来也不止一个,也不可能只有一个。经济上将细分为各个品种,文化上甚至底层逻辑都要细分,分成多极世界各个国家所需要的适合自己的超级AI。
三是金融数据供应商将先用上这类ai系统。
这三点目前来说是全应验了,说真的,欧洲国家这次的反应比我想象的要迅速的多,我本来以为他们还要跟着美国屁股后面舔一阵的。现在他们做的不是屏蔽chatgpt这种新事物,而是屏蔽那个公司获取免费数据的渠道,以后也好做出自己的类似ai。
各个国家肯定是要在底层逻辑上建立符合自己国家利益的类似系统的,地理上有国境线,网络上就也该有国境线,网络无国界的时代随着多极化世界的到来的已经成为过去。你不封别人,别人也会封你。各种各样的“长城”表面上看来是对自由的限制,实际上是对本国经济的保护,本质里是对文化边疆的防御。
欧洲这一年被坑的惨,既然被美国卖的那么狠,既然多极化的大门几乎完全打开,那么欧洲国家也要为自己的未来做打算。
有效数据和金融数据服务商这个,关注的朋友都知道,彭博以及提供类似服务的国内企业都打算搞出自己的生成式ai,未来几个月内将陆续推出。说真的这种东西还是有用的,毕竟是建立在有效专业数据基础上的,慢一点,晚一点都没关系,生硬一点也没关系,最关键的就是不能说谎,知道就是知道,不知道就是不知道,数据要专业,准确,清晰,不要瞎几把扯。
这个东西的重要性不是拟人不拟人,而是专业不专业,这就像你招个助理,你需要的是他的专业态度专业能力,还是他温柔不温柔,甜不甜?
生成式人工智能的未来不是大而全,大而全早在计划经济时代已经被证明是浪费资源了,生成式人工智能的未来最终还是是小而精,我们将在生活的各个方面体验这种智能,有负责情感的,有负责娱乐的,有负责各行各业的,也有负责衣食住行这种基础需求的。
大而全的生成式ai就像那个越来越臃肿的QQ一样只能成为记忆,这就是未来的方向。
同时也不用悲观,它在消灭低效岗位的时候也将创造高效岗位;但同时也不用亢奋,这不是什么第四次工业革命,工业革命永远是爆炸式的能源革命,能源革命代表了人类掌控物理边疆的能力,缺乏这一点我们只能困死在这小小蓝星之上。
严格上来说第一次和第二次工业革命应该归类为一类,蒸汽机也好内燃机也好,使用的都是生物降解而成的燃料。所谓第三次工业革命则是一个开头,人类第一次品尝到深研物理学的蜜果,而非仅仅依靠自然现象。所谓第四次也就是对聚变能的希冀,实际上应该和第三次归为一类,我们将在这一类中呆太久,甚至永远走不出去。
而生成式ai,狂热过后你会发现这只是对第三次工业革命的修修补补,同时也是对这个社会的额外辅助,好的生成式ai能提供更高的效率,更简单的体验过程。
当然,未来可期,未来它也将会成为一部分人的情感归宿。
我记得我以前一部关于刘慈欣的文章里提到过,不是每个国家都有资格仰望星空,同时也不是每个人,都有必要仰望星空。活在虚拟社会中,对很多人来说,其实也是个不错的选择。这也是一个解决社会问题的方向。
毕竟人生对大部分人来说,已经很不容易了,没必要让现实来为那些人增加更多难度。 据好多纸友说这是第四次工业革命,天天刷,刷的我都烦的要命。
那么,欧洲这是集体反革命了呗?
总要有一个是错的吧? ChatGPT目前就是在造神。
以前搜索,给你十个答案,都不太满意。然后你就要看十个答案,然后发现答案之间有冲突矛盾。你自己分析后会选择倾向某个答案,但又兼顾别的方案。
放到几百万人,几千万人,每个人心中会有自己的哈姆雷特。
那么,PK的就是可信度,要接受别的答案的冲击。
但是到了ChatGPT,他表现得很像一个智者,他的答案99%看起来都很像真的(因为通过概率分析,把最可能的下一句话选出出来拼接)。这其实特别像一个优秀的记者,记者可能对自己报道的东西完全不懂,但是他通过专家的只言片语,用自己的“常识”捏合起来,就能很像模像样。
这本质上,就是一个王牌记者,他只需要喂了一些专家的结论,然后就可以自己选择出最符合“常识”的片段,拼接出一个让最多人相信是真的文章。
以前自己搜索,是必须要自我思考,去伪存真的。可能受限自己能力,得到的也不真,但是至少世界保持多样性,不同的人有不同的答案。
但是如果习惯了ChatGPT,人是有惰性的,很容易就盲信ChatGPT。
现实中已经有一个很典型的案例了:围棋AI。现在评论一步棋下的好不好,几乎唯一标准就是AI怎么说。AI已经像上帝一样不可违背。但是,其实围棋是有几种不同规则的(数子/数目,古代/现代),如果不告诉AI是那一套规则,它算出来的就不那么正确了。换句话说,其他领域的AI再可靠,你确保告诉了AI全部条件了吗?
围棋的规则是非常简单而且清晰的,而且不涉及价值观。但即使如此简单的规则下,尚且可能因为漏告诉它用哪个年代哪个地区的规则就导致了明显的错判。
如果是复杂一点的事物呢,如果隐含了大量前提条件而提问者自己没有意识到呢?如果涉及到意识形态作为底层常识呢?比如海盗文明和农耕文明,他们的底层社会常识会一样吗?
这里最大的问题是,那个捏合文章的关键:“常识”。这个常识在很多领域就是意识形态啊。
有些东西,在美国可能是正确的常识,比如LGBT运动下关于女性的表达,很多美国人认定的不可质疑,到了在德国,可能这些就是反常识的。比如关于二战法国的作用,美国的常识,可能就完全和法国的常识相悖。
问题来了,ChatGPT会用谁的常识呢?显而易见,是美国的,甚至不能说是美国的,应该说是美国白左中的一小群。可能只有几百人,最关键的影响最大的可能只有几十人。甚至这个调参改变常识的群体,在美国都可能只是极少数派。
结果就是,这几十个美国人,哪怕是高尚的,也是用几十人的价值观,通过ChatGPT去洗脑几亿人。
可能会让欧洲的很多历史常识扭曲。让欧洲人对国家甚至欧洲文化的认同解体。特别是曾经的天主教和东正教国家,更加危险。
现在欧洲是没能力。有能力的,何至于这种策略。假设法国有能力的话,应该做的是:要求基于法国的文献来训练ChatGPT,包括英文版本的ChatGPT。同时,调参人员必须符合民主规则:人员构成比例必须符合法国人口的比例。比如穆斯林必须占比多少,反新教的人必须占比多少。熟读百年战争并认同法国的必须占比多少。。。。
有个评论的讨论说了另一个角度:由于GPT已经开始自己创造新闻,带来了信息污染,开始反身性影响到GPT自己依赖到信息数据源了。
现实中到GPT固然让整合信息更快了,但也让辨别真伪的成本大幅增加了。
最后,很多人没有基本概念,不知道AI技术和AI调教是俩个不同的东西。AI技术是没有价值观的部分,是纯粹的运行架构和代码。如果微软愿意公开,那是造福全人类的事情。
但是AI调教就不是了。AI调教一直都是非常依赖价值观的。但是由于卷积等老AI太过黑箱,大量调教的结果反而违背调教控制人的价值观和常识。这导致了调教成本很高,而且更容易出现AI的多样化。大公司不那么容易垄断。
GPT的最大优点是可以更加直观的给调教加上规则。可以大幅缩短调教时间。也可以更快的让AI调教到符合控制人的价值观。
现在微软或者说美国干的事情是什么?一方面不愿意公开能造福全人类的不含价值观的代码和架构细节。另一方面,全力推动AI调教的结果产品。而且这个产品是被极少数人价值观规范过的。这部分人的价值观,甚至不能代表美国人的价值观。
真正对人类好的,是不含价值观的AI技术尽快全球扩散,而包含价值观的AI调教要碎片化,要各国、美国各州,都独立调教出符合本地人价值观的AI调教产品。
页:
[1]