有很多人评论豆包手机助手这样的产品会有助于灰产和群控,或者会创建更高一级的入口,窃取其他厂商的数据和商业利益。
现实中很多领域已经有针对机器大规模操作行为的风险控制手段,识别哪些是机器操作的,哪些是人操作的。
但这有一个矛盾的地方。现在机器越来越像人,它可以不通过内部API的方式,直接通过图形界面操作。
即便是阻止系统内的模拟点击,它甚至可以通过外部的物理方式点击。
所有的风险识别似乎都在给机器设限,但机器的发展目标就是变得跟人一样。
那么这会导致人类的很多行为也会被风控。我们的反诈的活动已经证明了这一点。
AI让机器越来越像人,而人也越来越依赖虚拟的交互,我们防止机器的逻辑终将失效,甚至给人类带来很大困扰。
人们终将会生活在一个更虚拟的世界中。也许我们的应对政策应该在识别机器行为,转向为整个虚拟世界建立一个规则。
比如建立一个虚拟社会的契约,所有的行为可以追溯,查到责任归属,所有的权限也都可以分级。