此前,介绍了MLC团队推出的(MLC LLM)。 该AI对话模型没有服务器支持。 网页调用API使用本地GPU提供算力支持。 所有数据都是离线的,所以您无需担心。 谈话内容被泄露。
现在团队已经将MLC LLM移植到了手机上,并且还开发了iOS Demo应用,这意味着你可以在手机上运行大型语言模型,完全离线,并且模型和数据都是本地的。
好消息是,测试表明在14 Pro Max上可以正常运行。 速度稍微慢了点,但是还可以接受。 坏消息是,如果手机内存比较小,就会崩溃,因为模型运行时模型数据会被阻塞。 到内存,瞬间就会填满手机内存。
12 Pro的测试压力有点大。 基本上内存需要6GB才能启动。 从这一点来看,手机或许更有优势。 毕竟现在新出的安卓手机内存已经非常大了。
除了iOS版本之外,MLC团队还推出了/Linux/Mac CLI版本,即命令行版本,可以在终端发起查询并获得答案。 相对来说,PC的压力要小一些,毕竟内存稍微大点。
等等...我有没有提到 GPU 问题? 是的,内存并不关键,因为和PC都必须支持GPU加速,在手机上没问题,在PC上用户可能需要更新驱动,比如驱动程序。
有兴趣的用户可以尝试一下这个AI模型,蓝点测试还不错,中文支持也相当不错。 iOS Demo程序目前在TF,限额9000人。 如果已满,则无法加入。 有iOS开发经验的开发者可以自行编译安装。
iOS 演示 TF 版本:
(网页版):
/Linux/Mac需要由Conda管理,参见: