天生式人工智能汹涌澎拜,中美欧羁系AI有啥差别
生成式人工智能风起云涌,中美欧监管AI有啥不同?
就像特斯拉的崛起推动了中国电动车行业的热情,ChatGPT这一技术在短短几个月内点燃了整个人工智能行业。
不仅是百度推出了“文心一言”,阿里巴巴也推出了“通义千问”,百川智能、商汤科技、昆仑万维等公司也宣布将进入这个领域,使得中国人工智能行业充满了活力与激情。
生成式人工智能(generative AI)是目前人工智能领域的一个热门领域,可以创造出图像、文字、音乐等内容,甚至是程式码和影片,而不需要人工干预。
这一特点引起了用户的兴奋和担忧。一方面,生成式人工智能可以为文化产业和创意产业提供更多创作机会,促进创新和发展。另一方面,由于这种技术可以制造以假乱真的内容,面临着产生虚假信息和侵犯个人隐私等风险。
为了保证生成式人工智能的健康发展,需要加强监管和管理。目前,中国已经出台了《生成式人工智能服务管理办法(征求意见稿)》新规,要求相关企业进行安全评估和演算法备案,规定生成的内容应符合社会主义核心价值观。
这些规定可以帮助防止不良信息的传播,保障用户利益和隐私。,还可以加强技术研究和应用,适应市场的需求和社会发展,推动更为健康的生成式人工智能应用。
为何这么快就进行监管?
一位中国人工智能从业者向媒体表示,“这么快就推出监管措施确实比较罕见,比如P2P金融遍布全国,但直到爆雷才进行强监管”。
事实上,生成式人工智能技术才刚刚在不到半年的时间里崭露头角,而中国相关应用也仅推出数周便已开始推出监管措施。这么快的推出主要有三个原因伦理考量、破坏力以及迅猛的进化速度。
随着技术的发展,伦理问题也成为人工智能发展中不可忽视的因素。联合国教科文组织发布的《人工智能伦理问题建议书》中指出,这类技术具有极强的侵入性,不仅入侵人权和基本自由,而且被广泛应用。
,该建议书还强调,该技术带来了前所未有的新挑战,例如性别和种族偏见的增加、对隐私、尊严和个人行动的重大威胁、大规模监控的危险以及越来越多地使用不成熟的人工智能技术来执法等问题。直到现在,还没有出现通行的标准来应对这些问题”。
人类与机器人对话
伦理担忧也同样存在于ChatGPT中。这种生成式人工智能技术已经展现出了“石破天惊”的一面,对许多领域产生了破坏性。
例如,有一些大学生使用这种技术生成论文并获得高分。,生成式人工智能技术的进化速度也非常快。仅去年11月,ChatGPT推出后,今年3月就迭代出了GPT-4,不仅知识面更广、对话更流畅,而且开始能够读懂图片内容,在律师资格考试中也拿下高分,甚至具备自我反思的能力。开发者也表明,整个社会只有有限的时间来决定如何对其进行监管。
《生成式人工智能服务管理办法(征求意见稿)》中有一条引起了广泛关注“利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。”
一些人认为,外界对此议论纷纷是出于对政治风险的防范,而一些人则认为这是过度解读。我认为,虽然中国的AI企业虽然没有利用这种技术实现特定的政治目的,但在开发之初就需要特别注意避免此类问题的出现。
中美欧监管有啥不同?
目前来看,欧洲的监管速度和力度最为显著,中国次之,而美国的监管则相对比较慢。
意大利私人数据保护局自3月31日起宣布禁止使用ChatGPT,欧盟的多个国家也开始跟进,欧盟整体也正在酝酿出具体的监管措施。
与此,中国则于4月11日宣布推出《生成式人工智能服务管理办法(征求意见稿)》,并面向全社会公开征求意见,公众可在2023年5月10日前提交反馈。据估计,该办法将在下半年正式实施。
从目前的规定来看,该办法将实施前置监管,并且尺度相当严格。例如,“利用生成式人工智能产品向公众提供服务前,应当按照相关规定向国家网信部门申报安全评估,并履行演算法备案和变更、注销备案手续”。
美国也有动作,4月5日,美国总统拜登在白宫与科技顾问讨论了人工智能对人类、社会和国家安全带来的风险和机遇问题。
拜登表示“在我看来,科技公司有责任确保他们的产品在公开之前是安全的”。对于人工智能是否危险的问题,他回答“还需要观察,这种可能性是存在的”。4月11日,美国商务部开始正式公开征求意见,内容包括新的人工智能模型在发布前是否需要经过认证程序等。
,中国正在酝酿的监管措施适用范围也值得一提“研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法”。
中国中伦律师事务所的蔡鹏等人撰文指出,这一规定表明,无论生成式人工智能公司的实体位于何处,只要其支持境内用户使用,则均会受到监管规定的纳入。以ChatGPT为例,该平台目前正在严厉打击来自中国大陆地区的账号注册、使用其服务。
这一规定也间接表明,未来的人工智能领域也将存在一个类似于互联网时代的“防火墙”。上述的业内人士认为,中国和美国在人工智能时代将会是两个截然不同的市场,就像互联网时代的防火墙那样,使得各自领域中会涌现出各自的巨头。
欧洲在互联网时代的发展相对滞后,他们未能获得任何机遇,反而出现了受损的可能性。这就是为什么在反垄断和隐私保护方面,欧洲更为激进,并在人工智能时代也采取类似的手段的原因。
监管可能的漏洞
与此前较低端的AI对话模型相比,生成式AI可以根据已有信息虚构内容。例如,有人通过AI虚构出川普被捕时的照片,由于过于逼真,使部分网民信以为真。
网友甚至要求ChatGPT给出自己的简历,ChatGPT则直接“撒谎”,虚构出完全不存在的经历,甚至包含一系列虚假的论文标题和链接。
与其说漏洞,不如说不合理的地方。新的监管办法规定,“利用生成式人工智能生成的内容应当真实准确,并要求提供者采取措施防止生成虚假信息”。
,这一规定可能存在不合理的地方。生成式人工智能本质上是一个创造性的工具,类似于画家或诗人创作作品的过程。,强制规定生成内容必须真实准确,与该技术的初衷不符。,一些生成式人工智能生成的内容,例如文章、图片和影片,本身就属于“非真实”的范畴,这也是生成式人工智能服务的一部分。
当前的人工智能技术还在不断发展阶段,无法保证人工智能生成的内容百分之百真实准确。,在规范生成式人工智能服务的,也需要考虑到其发展阶段和技术特点。
,从条例的细节来看,企业需要在3个月内采取措施来修正AI模型中生成错误的回答,以确保类似的错误不会发生,这也为企业提供了充足的处理时间。
中国发展人工智能目前面临的困难
很多从业者认为,AI芯片问题是一个更加紧迫的问题,尤其是对于中国的AI产业而言。训练一颗高质量的AI模型需要极高的算力,而这需要借助高端芯片,如英伟达的A100和H100等芯片。而美国去年对这些芯片的出口实施了限制,这很可能会制约中国在AI领域的发展。
英伟达公司表示,其A100和H100芯片的用户包括阿里巴巴、腾讯和百度等中国公司,这些芯片对于这些公司的云计算服务和人工智能算法和训练非常关键。
,解决AI芯片问题是当前中国AI产业需要着重解决的问题之一。从长远来看,需要加强国内的硬件研发和制造能力,减少对外部芯片厂商的依赖。,还需要探索新的AI算法和模型,进一步提高AI的效率和准确性,以减少对大量算力的依赖。
,各国对人工智能服务管理是一个积极的尝试和探索,对于推动生成式人工智能技术的创新和合理应用具有积极的意义。
,我们也需要密切关注产业的实际发展情况和社会反馈,不断完善和修订管理办法,以适应新的技术变革和社会需求。希望中国国家网信办能够持续征求各方意见和广泛听取建议,制定更加科学合理的管理办法。
,我们也希望生成式人工智能服务的提供者能够严格遵守管理办法,自律自查,保障服务的质量和安全。只有这样,我们才能共同推动生成式人工智能技术健康发展,并为人们带来更多便利和乐趣。