以前我印象中,谷歌都是把自己玩剩的部分写成论文发出来,而把最新技术保留用在自己的产品身上。 比如 page rank 的算法就是一个典型。
这次 transformer 的论文据说也是几年前谷歌自己发的,但是谷歌自己的模型却败给了 openai 。 他都没有藏私吗?