《AI加剧侵犯隐私、制造信息茧房和操纵舆论的风险》看到微博最近上了个“评论哇噻机器人”,会自动在一些用户微博底下评论(很多用户发的微博没人回,可能平台是为了提升用户存在感和活跃度),它很理解用户在说什么,回复得很合理,判断是用自然语言大模型做的,看似有趣,但让人有被监视、骚扰的感觉,侵犯隐私,这个产品应用场景并不好,降低平台可信度。再延伸看,如果利用这种能力,不披露其机器人身份,大规模利用水军制造信息茧房、操纵舆论太容易了,一般根本无法分辨真人与否。最近有说抖音评论个性化(如一个男女吵架的视频,男用户看到的评论是男对女错,女用户看到的则相反,这个信息有媒体报道,但没有很官方确认),也是利用AI能力带来类似风险。鉴于此,政府需要强力监管,个体对信源的判断、独立思考越来越重要。