两年前LLM刚进入公众视野的时候,我在
博客里曾经提过一个"ABC"和“DEF”构成的人与AI的双循环。
如果LLM的用户本身具备相关的能力(
Able),LLM能够促进(
Boost)用户的效率,但用户应该指导、验证、确保(
Confirmation)模型输出的准确性。
如果LLM的用户本身不具备相关能力(
Disable),LLM会危险的产生一种能够允许(
Enable)用户具有相关能力的幻觉,那么势必导致错误、失败(
Falsehood/Failure),因为用户没有实际验证大模型的错误、偏差的能力。
从头就说过了,大模型最最危险的地方就是让人产生它能够Enable用户新的能力的幻觉。这也是我们目前观测到的很多大模型产生的贻笑大方的丑闻的缘故之一。