极市导读
开源社区的能量是否被低估了? >>加入极市CV技术交流群,走在计算机视觉的最前沿
-
开源 AI 正在取得胜利,我同意,对于全世界来说,这是件好事,对于构建一个有竞争力的生态系统来说也是好事。虽然在 LLM 领域,我们还没有做到这一点,但我们刚刚让 OpenClip 击败了 openAI Clip,并且 Stable Diffusion 比封闭模型更好。 -
你不需要庞大的模型,高质量的数据更有效、更重要,API 背后的羊驼模型进一步削弱了护城河。 -
你可以从一个好的基础模型和参数高效微调(PEFT)算法开始,比如 Lora 在一天内就能运行得非常好。算法创新终于开始了! -
大学和开源社区应该组织更多的工作来管理数据集,训练基础模型,并像 Stable Diffusion 那样建立微调社区。



-
能在手机上运行的大型语言模型:人们可以在 Pixel 6 上运行基础模型,速度为 5 tokens / 秒。 -
可扩展的个人 AI:你可以花一个晚上在你的笔记本电脑上微调一个个性化的 AI。 -
负责任的发布:这个问题与其说是「被解决了」,不如说是「被忽略了」。有的网站整体都是没有任何限制的艺术模型,而文字也不例外。 -
多模态:目前的多模态科学 QA SOTA 是在一个小时内训练完成的。
-
我们没有秘密武器。我们最大的希望是向谷歌以外的其他人学习并与他们合作。我们应该优先考虑实现 3P 整合。 -
当免费的、不受限制的替代品质量相当时,人们不会为受限制的模型付费。我们应该考虑我们的附加值到底在哪里。 -
巨大的模型拖慢了我们的速度。从长远来看,最好的模型是那些可以快速迭代的模型。既然我们知道 200 亿以下参数的模型能做什么,那我们应该在一开始就把它们做出来。



