联系我们 长高下文才略仅仅骄贵?最强GPT-4o正确率仅55.8%,开源模子不如瞎蒙
2024-08-31新智元报谈 剪辑:alan 【新智元导读】面前的LLM如故堪称能够相沿百万级别的高下文长度,这对于模子的才略来说,道理要紧。但近日的两项稳固参议标明,它们可能仅仅在骄贵,LLM骨子上并不可贯通这样长的内容。 大数字一向引诱眼球。 千亿参数、万卡集群,——还有各大厂商一直在卷的超长高下文。 从一运行的几K几十K,发展到了如今的百万token级别。 Gemini的最新版块不错收受200万个token当作高下文。 这概况止境于140万个单词、2小时视频或者22小时的音频。 但不知列位往时用得着这样长