推广 热搜: csgo  vue  angelababy  2023  gps  新车  htc  落地  app  p2p 

AI机器人在手机本地运行?考验手机内存的时候到了...

   2023-07-30 网络整理佚名2190
核心提示:应用,也就是说你可以在手机上运行大型语言模型,完全离线运行,不论是模型还是数据都在本地。上是可以正常运行的,速度略微有些慢但还是能接受的地步,坏消息是如果手机内存比较小的话会崩溃,因为模型运行的时候,模型数据会被塞到内存里,这会让手机内存瞬间被塞满。6GB,这么来看安卓机可能更有优势,毕竟现在新的安卓机内存都非常大。上使用压力就小一些了,毕竟内存稍微大点。

此前,介绍了MLC团队推出的(MLC LLM)。 该AI对话模型没有服务器支持。 网页调用API使用本地GPU提供算力支持。 所有数据都是离线的,所以您无需担心。 谈话内容被泄露

现在团队已经将MLC LLM移植到了手机上,并且还开发了iOS Demo应用,这意味着你可以在手机上运行大型语言模型,完全离线,并且模型和数据都是本地的。

好消息是,测试表明在14 Pro Max上可以正常运行。 速度稍微慢了点,但是还可以接受。 坏消息是,如果手机内存比较小,就会崩溃,因为模型运行时模型数据会被阻塞。 到内存,瞬间就会填满手机内存。

12 Pro的测试压力有点大。 基本上内存需要6GB才能启动。 从这一点来看,手机或许更有优势。 毕竟现在新出的安卓手机内存已经非常大了。

除了iOS版本之外,MLC团队还推出了/Linux/Mac CLI版本,即命令行版本,可以在终端发起查询并获得答案。 相对来说,PC的压力要小一些,毕竟内存稍微大点。

等等...我有没有提到 GPU 问题? 是的,内存并不关键,因为和PC都必须支持GPU加速,在手机上没问题,在PC上用户可能需要更新驱动,比如驱动程序。

有兴趣的用户可以尝试一下这个AI模型,蓝点测试还不错,中文支持也相当不错。 iOS Demo程序目前在TF,限额9000人。 如果已满,则无法加入。 有iOS开发经验的开发者可以自行编译安装。

iOS 演示 TF 版本:

(网页版):

/Linux/Mac需要由Conda管理,参见:

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报
Powered By DESTOON