以下是你的旧 iPhone 如何获得设备上的生成式 AI
苹果最近的一篇研究论文详细介绍了将设备上的生成式人工智能引入 iPhone 的解决方案。
该方法减少了对大量 RAM 的需求,表明该解决方案可以在旧款 iPhone 上启用设备内人工智能。
我们预计大量Android 旗舰手机将在 2024 年提供设备内生成式 AI 功能,但苹果在这方面一直保持沉默。现在,该公司发表的一篇新研究论文揭示了该公司如何让人工智能在iPhone上本地运行。
英国《金融时报》发现了一篇苹果研究论文,其中详细介绍了在 RAM 有限的设备上运行大型语言模型 (LLM) 的解决方案。该论文揭示了苹果如何将“模型参数”保存在存储中,并根据需要将其中的块放入设备的 RAM 中,而不是将整个模型加载到 RAM 中。
“这些方法共同支持运行高达可用 DRAM 大小两倍的模型,与 CPU 和 GPU 中的简单加载方法相比,推理速度分别提高了 4-5 倍和 20-25 倍,”论文摘录中写道。
旧 iPhone 获得设备内人工智能的途径?
设备上的生成式人工智能受益于拥有充足的 RAM,因为它提供比高端手机中使用的存储更快的读/写速度。快速对于设备上的人工智能来说至关重要,可以加快推理时间,因为用户不必等待数十秒(或更长时间)才能获得响应或最终结果。这一切都意味着设备上的人工智能助手可以以对话速度运行、更快的图像/文本生成、更快的文章摘要等等。但苹果的解决方案意味着你不一定需要足够的 RAM 来实现响应式的设备人工智能。
版权声明:网站作为信息内容发布平台,为非经营性网站,内容为用户上传,不代表本网站立场,不承担任何经济和法律责任。文章内容如涉及侵权请联系及时删除。