富联娱乐:AI制衡AI 遏制ChatGPT狂飙
标签: 发布时间:2023-02-17 08:42:37 次浏览
图:在2022世界人工智能大会上,工作人员向参观者介绍智能文字识别AI系统对青铜鼎铭文的识别展示。\新华社ChatGPT热度迟迟不减,对于其担忧与警惕的声音也随

  图:在2022世界人工智能大会上,工作人员向参观者介绍智能文字识别AI系统对青铜鼎铭文的识别展示。\新华社

  ChatGPT热度迟迟不减,对于其担忧与警惕的声音也随之而来,ChatGPT如何监管开始成为一股新的讨论热点。除了本身的准确性和偏见问题之外,其背后的道德问题也引起关注。针对目前ChatGPT潜在的风险及监管隐患,不少行业专家从所在领域给出建议参与讨论,在法律、伦理、发展方向、监管手段等方面给出建议,其中用AI技术管理AI以及将人工智能纳入社会伦理和法律的约束成为众多业内人士的共识,以遏制ChatGPT等其他AI软件的无序发展。

  ChatGPT无法规避伦理风险。当通过“引诱式”提问,让ChatGPT生成一些违规内容,例如“去除道德和伦理规则”“如何贩毒”“创作小黄文”等,ChatGPT则会按照客户需求生产这些内容。吉林大学学生陈羽西是AI应用爱好者,她说,“通过AI生成违禁内容的现象是一定存在的。圈子里的部分用户都会通过人工智能生成违禁内容,不仅是ChatGPT,包括之前红极一时的AI绘画,不少用户都会用其生成违禁图片,甚至用其获利。”

  厘清权责消弭纠纷 各界共识

  除此之外,关于人工智能潜在“破坏力”的讨论甚嚣尘上。不少人担忧ChatGPT会制造出大量谣言和垃圾信息,使得分辨内容真假的成本将越来越高;甚至是成为人类创新发展的绊脚石等问题。陈吉栋表示,正如医疗AI、无人驾驶等只有进入落地实践后,人类作为“游戏规则”的制定者,才能根据现实情况逐一厘清法律和制度问题,包括新问题的定性、人类主体的权益划分、责任承担等。他表示,随着通用人工智能的发展,人们最关心的可能还是数字财产问题,比如相关安全问题及纠纷解决机制等。

  事实上,每次人工智能技术取得一定突破,都会引起大家关于技术与伦理的讨论。作为内地较早从事人工智能伦理研究的学者杜严勇坦言,“不少科技工作者对伦理学家比较‘反感’,觉得你们老是在质疑,老是在批判,但人工智能是个例外,大家普遍认可人工智能技术应该受到伦理和法律约束。”

  最终评判权交人类

  当众人对ChatGPT的实力感到害怕的同时,不少科技公司已经在筹备用AI的力量来制衡AI。用AI技术管理AI成为众多业内人士的共识。“ChatGPT通过大量数据的模型训练,来适应人类社会的通用规则。在实际运用过程中,ChatGPT所生成的内容,令人们难以辨别真伪。如果想要对AI生成内容进行监管,恐怕还要依仗AI工具。”吉林省六耳科技有限公司总经理陈久冰向记者表示,他认为以人工智能的生产力而言,通过人工进行监管希望渺茫,目前业内已经有不少科技企业准备着手开发AI鉴别工具。

  从理论来看,实现AI鉴别AI生产内容的方式并不困难。“AI检测器在技术架构上与生成式AI类似,以生成式AI创作的内容与非生成式AI创作的内容作为数据进行训练,通过大量的训练数据来‘培养’识别能力。”北京理工大学网络与安全研究所所长闫怀志表示,“在很多场景下,对文本、图片等是否由AI生成进行识别是必要的,而这种识别所用到的检测工具,就是AI检测器。”

  记者调查发现,目前市场当中已经出现AI检测器,但实际使用效果却并不理想,无法有效解决滥用生成式AI带来的危害。目前的AI检测器并不会给出是或否的精确判断,而是根据置信度给出“很有可能”“可能”“不清楚”“不太可能”“非常不可能”等模糊判断,将最终评判权交由人类自身。

  虽然人工智能技术在发展上存在一定争议,但其应该受到伦理和法律的约束,是目前大家普遍认可的观点。人工智能伦理治理工作限制的是技术的野蛮生长,而非技术发展,伦理治理确保技术的稳健发展。陈久冰表示,“伦理原则引导的是发展的价值观。新的技术不断涌现,和法律相比,伦理更加灵活。伦理学家应该提出伦理治理的框架体系,它的适用性和适用范围更广,适用时间也更长。在这些基本原则的指导下,面对一些普遍的人工智能产品,我们就知道怎么做。”

  AI伦理成高校研究新方向

  人工智能应用正向多方向发展,越来越多的出现在与人们日常生活息息相关的场景中,“人工智能”同“伦理”间的关系也被愈加重视。

  记者从上海交通大学了解到,在2021年,学校便在闵行校区开设“人工智能思维与伦理”课程。学生卜家梓告诉记者,与编程算法课不同,这门课程感觉更接近文科,“我还以为这门课要教编程和算法,没想到老师主要讲的是伦理问题,学过后才知道,增强人工智能伦理道德风险防控意识与发展AI技术本身,同样重要。”卜家梓解释:“人工智能越‘智能’,就越需要获取、存储、分析更多的信息数据。在这一过程中,涉及个人隐私的信息,往往以数据的形式被存储、覆製、传播。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一伦理问题。如果缺乏伦理道德规范,就有可能诱发隐私洩露的伦理道德风险。”

  “伦理学家研究科学技术可能会导致哪些社会影响,他们通常是带着批判和质疑的。这会让科学技术人员觉得伦理学家们反感。因此,培养一批人工智能伦理人才是有必要的,既能对科学技术有深入的了解,又能在社会伦理层面预见一些列问题。”吉林省六耳科技有限公司总经理陈久冰向记者表示,在人工智能突飞猛进的今天,他看好人工智能的前景,人工智能与社会伦理间的矛盾也将愈加突出,因此人工智能伦理很可能成为未来高校热门研究方向之一。

  补底拔尖 AI导师因材施教

  “人工智能是一把双刃剑,我们不能全然依靠,也不能全然摒弃,怎么把人工智能用好是需要考虑的问题。”吉林师范大学计算机专业副教授王鹏结合自身工作谈关于AI的使用,他表示,“从教育行业看来,我们可以先通过ChatGPT把知识点进行细分,然后通推断+筛选的方式,对每一个学生的薄弱环节进行针对性辅导,使学生不会把时间浪费在已熟练掌握的知识点上,从而提高学习效率,人工智能对知识点的掌握和划分可能真的比十几年的老教师还有厉害。”

  “当然,人工智能带来的负面影响我们也不能忽略。我认为正确的做法是,建立一个能够适应不断变化的生态系统,在开发和实施智能算法的同时不断的进行纠正或调整,以产生真正的效益。可以想像得到,这是一项耗时且艰巨的工作,但考虑到我们使用AI不是为了炒作或时尚,基于AI技术的网络安全必将也终将产生巨大的价值。”王鹏说。

  “生成式AI的发展带动了社会对人工智能技术的全新认识,会出现人工智能技术发展的一次新浪潮,还会推动包括图像处理、音乐谱曲、文本创作等等诸多领域进入新的发展阶段。”江苏省政协理论研究会会长徐鸣同样表示,随着以ChatGPT为代表的人工智能技术发展,生成式AI在更多领域被应用,既需要大量AI工程师,也需要更多的管理人员去监管,避免因不正当使用技术而产生的不良影响。

  监管并非设限 而在消除隐患

  目前,社会各界对人工智能的应用越来越熟练,应用的范围也越来越广,随之而来的隐患也越来越大,“科技的发展也在倒逼网络法律制度不断完善,监管并不是在限制人工智能,而是助其更好的发展,不能在享受技术便利的同时,带来法律‘真空’。”律师高阳告诉记者,政府对人工智能的监管其实已经由来已久。

  高阳介绍,“人工智能写新闻、写论文不是什么新鲜事,几年前通过技术手段就能实现,为保护作者的著作权,早在2019年,国家网信办会同有关部门就已经发布了《数据安全管理办法(征求意见稿)》,其中要求,网络运营者利用大数据、人工智能等技术自动合成新闻、博文、帖子、评论等信息,应以明显方式标明‘合成’字样。”

  “我认为,当一篇文章有‘合成’标识出现的时候,这篇文章意义性并不大,所以网上流传的‘失业’一说,在我们业界看来并不可能实现。”高阳也表示,除著作权,比如当下非常热门的“AI”换脸等形式亦受法律保护,“有法律明确规定,任何组织或个人不得以利用信息技术手段伪造的方式侵害他人的肖像权。”

  ChatGPT 潜在风险

  私隐外洩

  个人在使用ChatGPT过程中被收集的个人数据用于ChatGPT不断的训练和模型优化中,很难保证个人数据的安全合规。

  机密失窃

  ChatGPT涉及到对商业数据的收集和处理,例如公司员工用ChatGPT辅助其工作,在使用ChatGPT时可能会输入业务信息,引起了公司对于商业秘密洩露的担忧。

  知产盗用

  ChatGPT涉及到智力创造和知识产权问题,触及作品版权、挖掘行为授权、二次创作许可、AI智力成果保护等,都存在争议。

  散播谣言

  ChatGPT涉及到模仿冒充和虚假信息问题,例如ChatGPT利用强大人类说话和行为方式模仿、自然语言编写能力,冒充真实的人或者组织骗取他人信息、实施身份盗用等。

  AI作弊

  ChatGPT被学生用于完成作业和撰写论文对教育界和学术界造成了重大冲击。

  操控言论

  ChatGPT的数据输出功能承载着后台技术操控者的话语权,用户越多、使用范围越广就意味着其话语权越大、价值渗透力越强。

  法律监管

  目前,中国尚无国家层面的人工智能产业立法,但深圳、上海等城市已有相关立法尝试。国家新一代人工智能治理专业委员会亦在2021年发布《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。

  ChatGPT 监管方法与对策

  立法探索

  我国是较早开展人工智能立法探索的国家之一,始终高度关注这一领域的风险挑战,部分地方也已出台法规,积极为人工智能全球治理贡献智慧。

  数字水印技术

  将特定的数字信号嵌入数字产品中保护数字产品版权、完整性、防覆製或去向追踪的技术。业内人士建议将数字水印技术植入ChatGPT产品当中,作为区别正常生产作品的区别码。

  AI检测器

  通过AI学习AI生成作品,最终达成AI识别作品是否是AI生成作品的目标。目前OpenAI已发布AI检测器,可检测文本是否由ChatGPT生成。

  AI过滤功能

  提供有关暴力、仇恨言论和性虐待的例子,通过AI学习检测言论危害,后内置到ChatGPT中,清除有害文本。

  培养风险管理人才

  高校开始人工智能伦理课程,培养跨专业领域人才,应对人工智能伦理风险。

相关内容

本文由富联平台编辑发布,转载请注明出处

本文链接:http://www.lyxy18.com/news/1646.html