中新经纬4月12日电 题:ChatGPT“智商税”现象为电信诈骗提供土壤
【资料图】
作者 陈兵 南开大学法学院副院长、教授,南开大学竞争法中心主任
随着ChatGPT的火爆,国内一些人利用人们的社交控心理,收割“智商税”挣快钱的手法层出不穷,包括付费买卖“使用次数”、花钱买卖各种“使用指令”、高价买卖等。ChatGPT的出现带来了很多新问题、新现象,但往往不是技术层面的。一定程度上讲,这些问题是因为ChatGPT爆火后所溢出的一些社会现象,打着新商业模式的噱头却装着新一轮电诈的玩法,利用消费热点来牟利。
消费者如何注意风险防范?
近期,国内涌现出一批名字中包含ChatGPT的公众号或小程序,以及类似的图标假冒ChatGPT的APP,而ChatGPT目前只有网页版,上述这些程序往往让你免费试用几次体验软件,基本都是套路,用过之后就开始收钱。如小程序Ai智慧聊、AI智慧聊天机、聊天小AI、AI对话模型、AI智能对话机器人、ai自动对话机器人等。更有无良的骗子,还会在软件中夹带裸聊、赌博等广告。另外,如抖音等短视频平台的下方出现用户引导性评论,如:某某ChatGPT项目正在众筹,人人都可以投资,多投多得。某某大公司背书,已经开始赚钱,不要错过这次风口的发财机会。
以上现象其实就是广义上的电信诈骗,本质不变,只是更改了题材。近几年我们一直在严厉打击电诈行为,如套路贷、众筹等非法集资行为。消费者要防范风险,除了不要轻易点击链接,对网上的这些信息要经过甄别,尤其是要你提前预存、预先购买的行为都可能存在风险。
淘宝上一个ChatGPT的登录账号一度卖到30元,有的不良商家甚至“一号多卖”,导致同一账号同时有多人使用,动辄被“限流”。ChatGPT的另一种使用方式是通过调用其官方接口,进行二次分发,这种方式不需要用使用VPN工具,因此很受欢迎。国内一些公司瞄准了这一“商机”,开发出各种基于其API的对话机器人产品,通过出售对话次数,付费包月的形式进行转卖,包月的费用一度高达200元/月,按次数收费也达到0.1元/次。然而,Open AI官方对ChatGPT 模型API的定价为1000个字节/0.002美元,这一价格远低于国内一些厂家“转卖”价格,基本等同于免费。
我个人认为这还很难被认定为诈骗。由于在“搬运”过程中,国内要承载一些相应的服务,提供基本能耗。在某些场景下免费,然后进行包装后转卖,从用户的角度来看,存在买卖自愿的行为,不构成诈骗。
从法律层面上来看,诈骗应是以非法占有为目的,对受害人存在隐瞒真相或虚构事实等,骗取款额较大的行为,主观上存在直接故意,在通过虚假信息进行传输和兜售,让受害人误以为真,进而造成财产的损失。前述相关事件中不存在编造虚假交易信息进行不公平交易的行为,也很难认定为过高定价。商家相当于“代购”,增加一些服务费是可以理解的。
商家批量的、大规模的转售行为,可能存在对产权拥有方Open AI的业务产业一定影响。从法律上来说,对免费产品或基本免费的产品进行包装后转卖的行为存在一定隐患。批量转售可能存在侵权行为,目前ChatGPT在中国境内还不能使用,但不排除Open AI会委托中方律师追究相关责任。
“训练”指令和翻墙“梯子”能购买吗?
另一种收“智商税”的形式是建立高价的“知识星球”,兜售所谓的“使用指令”。所谓的“指令”是否能满足个体的有效需求,用户应当如何“训练”或提问出自己需要的问题的答案?我身边的朋友和学生在国外使用过相关的“训练”指令,能在一定程度上满足个人的需求,可以让你在工作或学习中通过指令的方式获得更便捷、准确的结果。你可以通过精巧的“一把钥匙”打开大模型,且根据每一次的提问不断更新记忆,调整和修正输出的答案。
这个训练过程是需要成本的。我觉得在一定程度上可以满足个体的有效需求,为个体节省出训练的时间成本和学习精力。这很可能会催产出训练师这种职业,他们付出大量的时间和精力进行人机对话。
而我们普通用户没有必要对AI数据库进行“训练”,除非你将来要从事这个职业。你可能要对自己的问题不断修正,以应对给出的答案可能不理想的情况,这要耗费大量的时间,有时候还可能引发信息泄漏的风险。
另外,在训练过程中,实际上也要保护自身的信息安全。提问实际就是在做信息输出。不断训练、不断提问,不断的输出个人信息。你得到了你想要的答案,大模型也收集到了足够的个人信息。结果就是,很难判断你究竟是用户还是被消费的对象。
这里面存在一个科技伦理上的问题。当下,多数科技专家都认为,针对AI的研发和训练需要审慎,审慎不等于不用,而是等待相关伦理规则和法律法规同步跟上后展开科学有序的研发,这一过程客观上会延缓AI技术和产品的研发和使用。正如昨天(4月11日),国家互联网信息办公室公布《生成式人工智能服务管理办法(征求意见稿)》引起各界广泛关注,其中拟进一步强化相关主体责任,内容涉及数据安全、个人信息保护、算法设计、内容合规等方面。
为此,未来,一定要注重使用安全,尤其是伦理、法规的问题。虽然有人觉得信息输出不存在多大的危险,但由于大模型训练的精准性,它会通过数据挖掘,结合你其他方面的信息,在想象不到的其他领域出现信息泄露的风险。
要通过官网使用ChatGPT,需要用到所谓的“梯子”。实际上ChatGPT的官网在不使用VPN的情况下,是可以正常访问的,说明这个网站目前并不是国家防火墙认定的不适合访问的网站。只是ChatGPT官方在用户登陆Chat工具时,会验证登陆者的IP地址,对来自中国大陆和中国香港的IP进行限制登陆,这实际上可能是一种新的技术封锁。而我们使用VPN工具,主要是将IP模拟成为其他国家,以绕过ChatGPT的IP限制。目前,市场就存在代为提供“梯子”的商家。
严格意义上来说,肯定是有问题的,个人不去“翻墙”就不会触犯法律,做了就会有印记,互联网都是有记忆的。个人使用此类VPN的做法是否违反法律或条例?举个例子,如果你是一位正常注册国外高校的国内学生,你利用学校VPN的官方账号登录,本应合理合规的情况下来使用,但你要利用它做其他事情,这还是有问题的。
之所以对来自中国大陆和香港的IP进行限制登陆,是因为ChatGPT暂时不符合我们国家对数据安全的要求,它涉及到数据出境的问题。同时,由于ChatGDP是基于大型语料库模型,语言本身就涉及很强的文化属性,这里肯定会涉及到价值输出的问题。
用户如何寻求法律途径解决问题?
查询黑猫投诉几件案例显示:一、在必应搜索购买ChatGPT账号时,排在前面ChatGPT入口购买的账号一直不发货,已经超过了七天,虚假发货。花费38元不退款;二、下载ChatGPT提示VIP可以无限次使用,缴费19.9元后,依然无法使用,没有任何反应,也无法联系被投诉对象昆山红阅信息有限公司的客服;三、投诉对象为上海凤昶网络科技有限公司,用户反映花费19元在网上下载ChatGPT,要求付款使用,付完款发现不好用,没有完善的功能,甚至很差劲,跟不能用没有什么区别;四、有用户反馈通过财付通微博,搜索出的ChatGPT并安装,使用时显示要收费,我就付了19.9元之后使用,查不到想要的任何信息,就是一摆设。根本使用不了。
用户第一时间会本能地选择自力救济。所谓自力救济,指发生法律纠纷时,民事主体依靠自己的力量对自身利益受损的情况予以救济恢复,以此来维护和保障自己权利的方式。救济不力时会选择公力救济,譬如,通过诉讼、报案、检举等方式,相关机构可包括法院、公安、市监、网监等部门和机构。具体到前述问题,用户首先可以通过平台与服务提供方协商,寻求和解,如果不理想,还可以从网络监管的投诉渠道上获得帮助,针对销售中存在的虚假等问题,也可以举报至政府相关部门,这个行政调查执法还是比较有力度的。最后,也可以通过诉讼的方式予以起诉。(中新经纬APP)
本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。
责任编辑:孙庆阳
编辑:付健青
关键词: