看了一眼问题日志,发掘这个问题是在2016年提出来的,7年过去了,人工智能其实应用已然相比起以前不晓得翻了多少倍。
但实质上的底层技术的更新换代并无那样快。
例如此刻最火热的ChatGPT,其本质上便是一个繁杂的transformer模型。以transformer为基本的模型有非常多,然则能做到这么简单能够大规模应用的到日前为止并不多。
纵观AI的发展史,从1950年上下图灵测试理论的创立,到alpha go的诞生,其实亦不外才60数年罢了,比起大都数的学科,都只能算是个小青年。
而AI在历史上大都数火在少部分的群体,例如研究人员,她们之间会比拼谁的模型识别准确率更高;例如有限的几个大机构,微软,谷歌,deepmind,谁又刷新了某个人工智能的榜单。
然则绝大都数的群体,亦便是只能在电视或资讯山看人工智能的普通人,其实始终败兴并无机会去接触到人工智能这个东西。
而在近期一年败兴,状况出现改变了,那便是以Transformer为基本的大模型语言模型ChatGPT和以Diffusion为基