AI不是“神仙”也不是“妖怪”
摘要:AI的本事全来自人类喂给它的数据。就像教小孩认动物,如果只给看黄狗的照片,它见了黑狗就不认识。
中国发展改革报社评论员 张守营
最近两年,AI(人工智能)彻底火了。手机里的语音助手,短视频平台上的“数字人”主播,连小区门口包子铺都用上了AI点餐系统。可越是热闹,普通人越犯迷糊:有人说AI能治病救人,转头又听说AI编瞎话骗人;有人喊着“再不学AI就要失业”,也有人担心“AI统治人类”。这感觉就像走进个科技庙会,锣鼓喧天眼花缭乱,但普通人到底该信啥?抛开那些高大上的名词,用大白话说说AI,它不是“神仙”也不是“妖怪”,AI其实就是个“放大镜”。
AI的本事全来自人类喂给它的数据。就像教小孩认动物,如果只给看黄狗的照片,它见了黑狗就不认识。之前有银行用AI推荐理财产品,结果推荐的全是外国基金,因为训练数据里压根没中国大妈爱买的国债信息。更逗的是,AI写文章时经常“一本正经地胡说八道”,比如非说“秦始皇用过智能手机”——这不是它故意骗人,是压根不懂自己在说啥。所以,千万别把AI当神仙供着,它顶多是个特别会查资料的“学霸”,真遇到要紧事,还得咱们自己拿主意。
邻居王阿姨最近吃了大亏。她在短视频看到个“AI理财专家”,听它说得头头是道,把养老钱全投进去,结果血本无归。后来才知道,那个AI推荐的所谓“高收益产品”根本不存在,全是它自己瞎编的。这种“AI幻觉”现在越来越常见,就像小孩为了完成作业硬凑答案。
技术专家打了个比方:AI说话像玩成语接龙,只管句子通顺不管真假。让它写篇云南旅游攻略,它能编出“昆明海底世界有会说话的企鹅”;让它推荐养生食谱,敢说“每天吃二两观音土排毒”。清华大学搞了个“AI测谎仪”,专门检查AI说的话靠不靠谱,可普通人哪分得清?记住三条保命法则:看病问真大夫,投资找正规机构,重要信息多查官方渠道,AI顶多当个参考。
看着新闻里动不动几十亿元的AI投资,很多人觉得这是大公司的玩具。可咱胡同口卖煎饼的李姐不这么想——她用手机上的免费AI工具分析顾客喜好,发现早上七点买煎饼的多是上班族,就在这个时段推出“加蛋送豆浆”套餐,一个月多赚了三千块。
现在各地政府都在推“AI惠民包”,就像当年教大爷大妈用微信支付。菜农用AI预测菜价、小饭馆用AI设计菜单、广场舞队都用AI编舞。当然,大公司确实掌握更多资源,但普通人用好现成的AI工具,照样能改善生活。这就好比用不起私人飞机,但骑共享单车也能到达目的地。
最近欧盟吵翻了天,说要禁止AI看病判案,国内也要求所有AI生成的内容必须打上“电子水印”。这些规定就像给熊孩子定家规:不管吧,怕它闯祸;管太严吧,又怕限制成长。
技术派专家急得跳脚:“你们知道训练个AI多烧钱吗?天天审查还咋创新?”可普通人更担心的是,AI万一把自家孩子照片乱传到网上,或者租房时被AI算法歧视怎么办?其实这事儿得两头抓:既要给AI划红线,比如不准冒充真人、不准搞种族歧视,又得留出成长空间,就像孩子犯错不能一棍子打死。听说现在有“AI道德委员会”,里头不只有科学家,还有律师、教师甚至家庭主妇。这就对了——管AI不能光靠专家,得大家商量着来。
AI放大人性的善与恶,放大社会的进步与缺陷。用得好,就像给全村人配上望远镜,看得更远;用歪了,就成了照妖镜,照出贪心与偏见。
咱们要做的,不是跪拜也不是恐惧,而是像学用智能手机那样,慢慢摸清它的脾气。政府得当好“家长”,既鼓励创新又守住底线;企业不能光想着赚钱,得教用户怎么正确使用;而咱们自己,少刷点“AI毁灭人类”的营销号,多学点实用技能。毕竟,决定未来的从来不是工具,而是使用工具的人。
责任编辑:宋璟