律师解析ChatGPT小程序的法律风险与流量变现问题

聊天机器人程序火爆背后的争议与风险

  最近,聊天机器人程序(以下简称“AI聊天机器人”)突然火了,很多人认为这是人工智能技术的一大进步。然而,随着它的普及,也引发了不少争议,甚至有一些不法分子趁机敛财,搞起了“李鬼”生意。

调查:山寨小程序收费高达千元

  AI聊天机器人走红后,国内多个电商平台和社交平台上出现了大量售卖相关账的店铺。在某电商平台上,一天之内就有上万人购买,最低售价仅2元。然而,这些账大多是多人共享的,系统运行缓慢,体验并不好。如果需要单人账,商家还会额外收费,起步价100元,每分钟加收2元。

  随着AI聊天机器人的爆火,一些商家嗅到了商机,推出了各种山寨小程序和公众,打着“AI智能问答”的旗,向用户收费,部分账户收费甚至高达千元。然而,这些“李鬼”与官方平台的功能完全不一致。目前,AI聊天机器人的者和研究机构并未在中国大陆提供相关服务,也没有相应的运营团队。

  微信方面已经封禁了大多数此类小程序和公众。2月18日下午,北青报记者搜索相关关键词时发现,以“AI智能问答”为名的小程序几乎已经消失,但相关公众仍然存在。其中,一个名为“超级问答”的公众提供5次免费提问机会,超过5次则需要注册会员,费用从周卡99元到季卡399元不等。

被诱导用于生成钓鱼邮件

  山寨版的AI聊天机器人可能只是蹭热度、赚流量钱,但更值得警惕的是,不法分子已经开始利用它进行犯罪行为。据公安部官网发布的信息,境外有人通过AI聊天机器人创建了一个完整的感染链:在提问者的诱导下,它可以生成针对特定人或组织的“鱼叉式”网络钓鱼邮件。这种邮件更具欺骗性和迷惑性,接收者一旦点击,系统就会被恶意代码感染。

  此外,不法分子对AI聊天机器人的恶意利用也带来了更多的数据安全问题。国外已有相关机构证明,该机器人可能被用于编写恶意软件,从而逃避防病毒软件的检测,或利用其拟人化的聊天功能,冒充真实的人或组织骗取他人信息。

案例:使用AI聊天机器人写作新闻稿导致错误信息传播

  研究机构测试发现,如果向AI聊天机器人提出充斥阴谋论和误导性叙述的问题,它能在几秒钟内改编信息,产生大量令人信服但没有来源根据的内容。一旦被不法分子利用,它可能成为制造和传播网络谣言的工具。

  2月16日,一则“2025年3月1日起,杭州市将取消机动车尾限行政策”的消息在网上疯传。由于表达非常正式,许多市民误以为是官方通报。然而,实际情况是,杭州某小区业主群中,一位业主尝试用AI聊天机器人写了一篇关于取消限行的新闻稿,并在群里直播了写作过程。文章被其他业主截图转发后,导致了错误信息的传播。涉事业主后来在群里公开道歉。

使用AI聊天机器人具有一定的法律风险

  京师律师事务所律师雷国亚表示,AI聊天机器人的火爆背后,暴露出的人工智能法律风险和无序商业行为值得重视。不少人尝试用它写论文、研报,甚至进行商业活动,这些行为目前都存在一定的法律风险,比如知识产权和原创性问题。如果确实需要使用AI聊天机器人生成内容,必须注明测试来源,发布者也要对内容的真实性负责,否则将承担相应的法律责任。

  以杭州取消机动车尾限行政策为例,如果该业主没有尽到提醒义务,造成后果是需要承担一定责任的。

相关:微软修改必应机器人体验上限

  2月17日,微软宣布,从当日起,必应聊天机器人的体验上限为每天50次聊天,每轮5次对话。这是必应在多次失控后,对其人工智能实施的对话限制。微软表示,过长的聊天会话可能会混淆必应的基本聊天模式,因此实施了这些更改,以帮助集中聊天会话。

  数据显示,绝大多数用户能在5个回合内找到答案,只有约1%的聊天对话超过50条信息。微软还表示,如果聊天时间过长,AI聊天机器人可能会给出与设计语气不符的答案,因此正在研究如何更精细地控制其响应。

  2月7日,微软推出了整合GPT-4的全新必应搜索引擎。根据微软企业副总裁兼消费领域首席营销官发布的消息,新版必应上线48小时内,已有超过100万人申请加入。

© 版权声明
THE END
分享