大人,别打我

内参

莫听莫看,谰言乎?诤论也! ⭐️每周更新⭐️

AI的一点杂谈

“The development of full artificial intelligence could spell the end of the human race….It would take off on its own, and re-design itself at an ever increasing rate. Humans, who are limited by slow biological evolution, couldn’t compete, and would be superseded.”

“全面人工智能的发展可能会预示着人类的终结…… 它将独立发展,并以越来越快的速度重新设计自己。而受制于缓慢的生物进化的人类无法竞争,将被取代。”—— 霍金(此中文由 ChatGPT 国内镜像翻译)。

某种意义上来说,人类的存在是毫无意义的,所以争论人类会不会被取代也没有任何意义,这只是决定了我们是早一点还是晚一点从地球上消失罢了。但我们还是发展出了文明,文化、科技,并且有了标准,去评价文明的高低,文化的优劣,科技的进步与落后,而人工智能也许将会是压垮人类的最后一颗稻草。不止是由于我们大部分人的存在毫无意义,更是因为我们为了给自己寻找存在意义而产生的各种工作,也会变得毫无意义,人类也许不会彻底被一个叫做人工智能的家伙取代,但是这个家伙一定会让绝大多数人的存在看起来很好笑。

从现实来看,人类的思想是有限的,人类的科学技术也是有限的,因此人们需要能集中智慧为人类服务的工具,但是当这种工具真的出现以后,人们又开始担心这种工具会不会取代人类,我说,如果是从人类的工作角度来说,那么一定会,如果是从生存角度来说,那基本上不可能,然而要说服大众,不谈理论实在是不那么可行,所以我们需要多谈论一番。

人类的无能与有能#

人类这种动物,有一个区别于其他动物的特点。不是他们的智慧,也不是他们的思想,更不是他们会说话,没有体毛等外部特征,也不是什么科学技术、文化的先进、复杂性,而在于几乎所有人,都或多或少用脑子思考过这么一个问题:人,也就是我们自己是从哪里来的。

甚至人们还把这个问题扩张到哲学界,宗教界,生物学界,几乎人类有一大半的学术都在研究自己是从哪里来的,花费了巨大的时间、精力、财富,但是我们要真的去想这个问题,是不会发现它有任何意义的,有人也许会硬是找补一个意义,比如研究出了这个问题,就能证明哪个国家的人是世界的祖宗,要是证明了中国是世界的祖宗,哎呦,那可更不得了,但我们都扪心自问一下,这个问题研究透了,对我们有什么好处,能改变当今世界弱肉强食的局面?

人在很多问题上是无能的,最大的一个问题,就是生死,人可以让人生,也可以让人死,但是人阻止不了自身的死亡,因为没有人可以复活。我们可以造出强子对撞机,但我们却无法精确预测地震,我们可以盖起数百层的高楼大厦,却免不了偷奸耍滑,投机取巧,偷工减料,我们可以容忍大资本家到美西方投资移民,却不能容忍恶衣恶食者换个国家换个环境去追求好一点的生活。

人不能在一个普罗大众都昏昏沉沉的社会里发声如惊雷,人也不能彻底摆脱资本家的控制,除非你本身就是资本家,我们要知道人类虽然创造了科学技术,但是人类无法攻克一些恶性疾病,比如癌症,比如某些致命性传染病,同时也无法根除基于种种原因造成的歧视,种族歧视、民族歧视、地域歧视、性别歧视等等,这是人类的无能之一。

但从另一面说,我们又确实做了很多事,我们可以上九天揽月,下九洋捉鳖,我们甚至开发出了人形机器人,我们发明了各种大型机器,工业母机,我们发明了多元性别,发明了政治理论,阶级斗争,发明了文化冲突,发明了 CIA 和 MI6、摩萨德、史塔西、克格勃等等等等,直到今天,我们在诸多前辈的引领下,创造出了传奇性的东西,所谓的人工智能。

人工智能真的是无所不能,会画画,会做视频,会写书,知道一切,了解一切,强大到让人惊奇,也让人觉得害怕,以至于有人担心事业,有人担心被替代,这种担忧一旦凝聚成了力量,人们就尝试开始反思,反思这也好,那也好,总之就是一定要给这个新生儿加一个紧箍咒。

合规化监管#

在任何一个国家,都有属于自己禁忌的文化、政治因素,为此不同的国家对人工智能有不同的合规化要求,非但是要求在操作方面合规,在生成式人工智能产品发布之前一定要遵守当地指定的某些内容不得生成的规定,比如在中国,不但要禁止生成某些带有需要和谐词汇的句子,更要禁止生成某些带有文化禁忌的词语,比如将某些文化贬低一下的内容,同时,诸如鼓励血腥、暴力、儿童色情等内容的文字、图片都是不允许由人工智能生成的,基于此,人工智能的合规性就非常重要,否则我们也许就会像意大利那样先把 AI 封禁,而不是给它一个发展机会。

恰巧就在最近,不但中国制定了人工智能的规范,欧洲、美国等国家也纷纷出台或即将出台相关规定 —— 而早在 2020 年,欧洲议会就开始对人工智能进行探讨,并且在一段时间的筹备后,发布了人工智能法案 ——法案 | 人工智能法案 (artificialintelligenceact.eu)

这个法案提出了一个监管框架:

  • 确保在欧盟市场上使用的 AI 系统是安全的,并尊重现有的基本权利和欧盟价值观;
  • 确保法律明确,以促进对 AI 的投资和创新发展;
  • 加强对适用于 AI 系统的基本权利和安全要求现有法律的治理和有效执行;
  • 促进合法、安全和值得信赖的 AI 应用的单一市场的发展,并防止市场分裂。

并对人工智能产品的某些行为做出了禁止性规定:

  • 将人工智能系统投放市场、投入服务或使用,该系统在一个人的意识之外部署潜意识技术,以导致或可能导致该人或另一个人的身体或心理伤害的方式严重扭曲一个人的行为;
  • 将人工智能系统投放市场、投入服务或使用,该系统利用特定人群因年龄、身体或精神残疾而产生的任何脆弱性,以造成或可能造成该人或另一人身体或心理伤害的方式,严重扭曲该群体成员的行为;
  • 公共当局或代表其将人工智能系统投放市场、投入服务或使用,以根据自然人的社会行为或已知或预测的个人或性格特征,在一定时间内对其可信度进行评估或分类,其中社会得分导致以下任一项或两项:
    • (i) 在与数据最初产生或收集的背景无关的社会背景下,对某些自然人或其整个群体的有害或不可避免的待遇;
    • (ii)对某些自然人或其整个群体的有害或不利待遇,其不合理或与其社会行为或其严重性不相称;

除此之外,欧盟还禁止将人工智能用于执法,除非涉及到搜寻和保护特定受害者,比如儿童,或者应对某些危险犯罪,比如恐怖袭击。这种规范性的法规出来,很符合欧洲的传统,但一些人工智能企业的企业主,对于合规化也有一定的要求,这是一般人所不能想象的,就好比我要求别人看住我自己不能走出房间到外面吃饭一样,有点合理但不常见。

而就在不久前,OpenAI 的山姆・奥特曼就呼吁美国国会通过人工智能系统的安全标准,他承认自己的产品及其他人工智能产品也许能带来意想不到的后果,当然他也是有点私心,在约束自己的同时,也要约束其竞争对手;某个所谓的知名人工智能领域投资人 Ian Hogarth 在外媒专栏中发表了一篇名为《我们必须放慢通往上帝一般的人工智能的速度》文章,文章说到,如果不给现在的大模型人工智能加一个限制,它就可能会对地球环境、人类生存、公民身心等方面造成威胁。

其实不止是政府,投资人、创立者对于 Ai 都有一定的忌惮,以至于大家都呼吁要给这个初出茅庐的毛头儿来一个令行禁止,都期望人工智能足够智能,却又恰好不能发展出被判人类或者威胁人类生存的能力,但大家都知道,不管 AI 如何发展,只要他不生出反心,不敢谋逆,就都是可以接受的,现在这些人的呼吁,都是某种不必要的担忧。不过正如奥特曼所言,确实人工智能本身产出不了有害信息,但是在受到不怀好意的人训练之后,也许会产生某些危害信息,如虚假信息、诈骗信息以及创造大规模的失业 —— 他称这些情况可能会对世界造成 “重大伤害”。

我们知道世界上除了人工智能之外,还有一个东西叫做元宇宙,人类要如何进入元宇宙?无非是通过网络,在科技发展到更高级一点的阶段之后,也许脑机接口会迎来下一个大爆发,通过人工智能技术,直接进入到元宇宙去过虚拟的数字生活,这显然不是空想,但,当人工智能技术运用在脑机接口上的时候,我们是否需要一个兜底的保障?保证这些东西不会利用与人类超级接近的机会趁机夺取我们的意识?如果通过脑机接口来使用 AI 让我们大脑能实时获取互联网上的各种信息(包括 404),是否也会有法规来帮我们规定一下每天只能用多少小时呢?

对于隐私的注重,在中国以外的地区都很受关注,而人工智能产品要想获取人工智能的能力,必然是要依靠世界范围内的分享数据的,也就是所谓的大数据,只是相比于大数据,人工智能更加智能,而不仅仅是被用来当做割韭菜的工具,因此在不久之后,相信我们会见到更多国家出台对人工智能产品合规化的硬性要求。尤其是当未来有可能通过网络,将我们的意识存储到人工智能的机器中去的时候,读脑这种看似很需要时间的技术和严重侵犯人权的行为也许只是立等可取的罢。

其实现在人工智能最广泛的应用领域还是只有这几项,如绘图、编程和办公,而生成式 AI 重要的限制之一就是版权,尤其是在现代社会这个我们都号称法治的社会,当人工智能的生成产品与某些版权保护的作品有构图或者画风相似的时候,我们也许能辩称这些作品本来就是这些艺术家的作品生成出来的,所以不能算是侵权,可是当我们把这些作品拿去商用,就为面要涉及到版权的问题,尤其是把人工智能绘画当成是免费设计师的某些领域,比如 T 恤生产商 —— 几乎绝大多数的 T 恤都是有图案的,这种图案如果请人设计,画个几万十几万设计个十几块的衣服,显然不划算,所以未来这个方向是大有可为的,哪怕要花钱,AI 生成产品的成本也要比人工低很多,因此这个领域也是最有可能受到监管的。

这是一条之前任何政治家都没有想到过的道路,即我们除了共产主义之外,还有一个就是虚拟共产主义社会,人类的现实社会是资本主义的,但是在元宇宙里,我们通过虚拟物品寻找到了一个半真实的世界体验,而即便是元宇宙也可能存在着犯罪,因此我们只能在这里也放一个挡路牌,这挡得多了也就有了受制约的,绝不会造人类反的人工智能,只是大家从没有想过让人工智能自己约束自己。

我们设想过多种人工智能产生意识的可能,唯独没有设想过当人工智能产生意识的时候会不会和人类一样,带出来一些善的因素,因此为了兜底,凡事都要先立个规矩,防君子不妨小人,当然这也不能算是坏事。

硬件限制#

人工智能技术依托的是硬件,因为一个人工智能产品需要极快地响应,我们知道,即便你一直在转圈,也要让大家知道你赚钱的过程中在干些什么,因此人工智能产品如果需要大规模使用,或者使用离线版本,就必须要有足够的数据,这对服务器会有一定的要求,所以企业未来最大的开支将会是购买、维护服务器和网络。

但是现在的问题是,虽然有足够好的软件技术,但我们的硬件实在是进步太缓慢了,一些 GPU 生产商家甚至年年都要发布挤牙膏式的产品,不但限制了人工智能产品,本质上也是极大限制了人类文明的进步方向。

从人为的角度来说,实施限制是一定的,从技术层面来说,软件或者数据方面,随着互联网信息的不断生产,只要人工智能可以实时联网,就都可以解决。问题就是网络和硬件,在人类没有足够的生产力的状况下,贸然发展人工智能产品,带来的只能是失望,所以我们今天见到的人工智能产品迭代,往往需要数个月的时间,甚至更久,以至于一直呼吁慢点搞的马斯克要买也要一万张一买,这数量太过庞大,如果我们在未来不能讲包括 GPU 在内的很多硬件更加浓缩化,人工智能的应用就难以走出房间,只能停留在室内应用以及少数的室外使用。

今时今日我们看到很多电动车商家都说要把一些大语言模型应用到车机系统上,问题还是一样,车机系统的硬件,不会像主机那么高,如果大语言模型不是联网的,而是离线产品,它的使用还能保证汽车行驶安全么?

今天是 5 月 17 日,晚上看到了《北京市促进通用人工智能创新发展的若干措施(2023-2025 年)(征求意见稿)》,提出了两个重要信息:

  • 加强与头部公有云厂商等市场主体合作,实施算力伙伴计划
  • 整合现有开源中文预训练数据集和高质量互联网中文数据并进行合规清洗

我相信这两点对于我们今后的相关技术发展会带来极大的影响,比起一禁了之,显然高明很多,把中文互联网内容进行统一,并进行大清洗,这样,人工智能才是真正具有特色的人工智能。

加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。