首个开源MoE大模型发布!GPT-4同款架构来自欧洲的OpenAI

来源:米乐app体育下载 日期:2023-12-26 19:57:06

  以及他还解说了为什么AI社区这几天如此活泼:最大的深度学习会议NeurIPS行将在下周敞开。

  由于其前身Mistral-7B原本便是开源根底模型里最强的那一档,常常能够越级应战13B、34B。

  而且Mistral-7B以宽松的Apache-2.0开源协议发布,可免费商用,这次新模型很可能沿袭这个协议。

  在多个评测排行榜上,根据Mistral-7B微调的Zephyr-7B-beta都是前排仅有的7B模型,前后都是规划比他大得多的模型。

  现在这个新的MoE模型连个正式姓名都还没有,社区一般称号它为Mistral-7Bx8 MoE。

  但在我们等待的等待中,新MoE模型比照单体Mistral-7B的提高起伏,就应该像GPT-4比照GPT-3.5那样。

  第一次测验、没有一点优化的情况下,需求两张80GB内存的卡,优化版别行将推出。

  其实Mistral AI也为我们预备了官方配套代码,使用了斯坦福上一年发布的轻量级MoE库Megablocks。

  刚刚完结一轮4.87亿美元的新融资,最新估值迫临20亿美元,已提升独角兽。

  Arthur Mensch曾在承受媒体采访时谈到,让模型变小是支撑Agent开展的途径之一。

  9月底,Mistral AI以磁力链接的方式发布第一个开源模型Mistral-7B,其时许多开发者试用后都觉得Llama-2不香了。

  12月初,Mistral AI再次甩出开源MoE模型磁力链接,再次掀起一波热潮。



上一篇:在Surface
下一篇:S12 MagniV