chatgpt 李永乐老师同款科普,普通人怎么用大模型讲明白复杂事
很多人问,为啥李永乐老师能把那些看着挺吓人的物理公式,讲得连我这种高中物理及格线都摸不到的人都能听懂?其实啊,核心就俩字:翻译。把“人话”翻译成“行话”,再把“行话”翻译成“人话”。今天咱不整那些虚头巴脑的技术名词,就聊聊咋用 ChatGPT 这种大模型,学会李永乐那种“把天聊明白”的本事。
说实话,以前我觉得搞科普得是清华北大教授,现在发现,只要你会提问,AI 就是你肚子里的十万个为什么,还是那个特别有耐心的李永乐。
先说个真事儿。上周我有个做医疗器械的朋友,想给自家新出的血糖仪写个宣传文案。他直接丢给 AI 一句:“写个产品介绍,要专业。”结果你猜怎么着?那玩意儿写得跟说明书似的,冷冰冰的,连个标点符号都透着股“别来烦我”的劲儿。客户看了直接划走。
后来他换了个问法,这就有点“李永乐味儿”了。他让 AI 扮演一个“有点强迫症但特别关心家人健康的中年大叔”,然后问:“怎么跟家里那位总忘记测血糖的老伴儿,用聊天的方式,把血糖仪的重要性说清楚,还得带点幽默感,别太说教?”
这一改,味道就不一样了。AI 生成的文案里出现了“咱爸那血糖仪,比咱记性都好”这种话。虽然有点夸张,但听着亲切啊。这就是关键,大模型不是不会写,是你没给它设定好“人设”。
你看李永乐老师,他为啥火?因为他不端着。他讲量子力学,不说波函数坍缩多复杂,他说“就像你不去看它,它就在那儿瞎晃悠,你一看,它就得老实站好”。这种比喻,就是 AI 最擅长的“类比思维”,前提是你得教它这么干。
咱普通人用 ChatGPT 李永乐 这种思路,其实就是在做“降维打击”。别总想着让 AI 给你写篇800字的深度好文,那玩意儿容易空洞。你要让它拆解问题。
比如,你想搞懂最近那个很火的“固态电池”到底是个啥。别搜百科,直接问 AI:“请用李永乐老师的风格,给一个完全不懂化学的小学生解释,为啥固态电池比液态电池更安全?打个比方,最好跟咱们平时吃的果冻或者果冻布丁扯上关系。”
你看,这一问,AI 就得动脑子找联系了。它可能会说,液态电池里的电解液就像稀粥,容易洒出来着火;固态电池就像凝固好的果冻,怎么捏都不容易漏。虽然这个比喻不严谨,但对于小白来说,瞬间就懂了个大概。这就叫“有效沟通”。
当然,AI 也有犯浑的时候。它有时候会一本正经地胡说八道,这点跟某些专家差不多。所以,咱们得有个“校对人”的意识。别全信,尤其是涉及数据、事实的时候。你可以让它列出三个观点,然后你再去查证其中一个,看看靠不靠谱。
我试过让 AI 模拟李永乐老师给我讲一遍“熵增定律”。它开头那句“宇宙就是个越来越乱的房间”,简直绝了。然后它顺着这个逻辑,讲到了为啥收拾屋子那么累,因为不收拾它自己就会乱。这一套下来,我不仅懂了物理,还找到了偷懒不收拾屋子的理论依据(开玩笑的,还是得收拾)。
所以,别把 ChatGPT 李永乐 当成一个搜索工具,把它当成一个随时能陪你头脑风暴的搭档。你给它一个清晰的场景,一个生动的人设,它就能还你一段精彩的对话。
最后唠叨一句,技术再牛,也得靠人来驾驭。别指望 AI 替你思考,它是你的扩音器,不是你的大脑。你得先有那个“想把事情讲清楚”的念头,它才能帮你把事儿办漂亮。
咱普通人,不用成为科学家,只要学会怎么把复杂的事儿,用大白话讲给身边的人听,这日子过得就通透多了。这就够了。