4 月 23 日,大模登场微软推出小语言模型(SLM)Phi-3系列,型让有Phi-3-mini、模型Phi-3-small、丨科微擎微赞源码社区Phi-3-medium三个版本,创闻在评估语言、大模登场编程、型让数学能力等的模型基准测试中,Phi-3系列模型表现优于同等规模甚至更大规模模型(如GPT-3,丨科5)。微软称其是创闻目前同类中最强大且最具成本效益的小型语言模型。
Phi-3模型的大模登场安装源码“小体积”,让手机上运行高能力的型让语言模型成为可能。如Phi-3-mini只占用手机18GB内存,模型如在iPhone 14上部署,丨科苹果的创闻A16仿生芯片在设备上脱机运行,可以实现每秒超过12个token。源码后台
自2022年12月ChatGPT爆火之后,科技公司们一头扎进了大型模型的竞争,2023年接连刷新模型参数,2024年开始“内卷”长文本。大家似乎默认数据越多、pixy源码参数越大、算力越强,模型的能力越强。
但是,高昂的苹果 源码运行成本、具体场景模型调试难度等问题,让大模型商业化的路径慢下来。此时小模型的优势就体现出来了。
小模型,目前某些领域也能接近大模型的性能。特别是在各手机和PC厂商正在力推的AIPC、AI手机上,对设备计算能力、运行能力、储存能力要求较低,能在地化运行的小模型,的确是不错的选择。
其实早在2023年6月份,微软就发布了第一代Phi模型,Phi-3系列已经是其第四代产品。近期,苹果公司也凑了小模型的热闹。
2024年4月24日,在大模型上没有什么动静的苹果公司,发布开源小语言模型OpenELM,包括