В преддверии конференции WWDC 2024, выяснилось, что Apple планирует внедрение в iOS 18 собственных локальных моделей больших языковых моделей (LLM), что позволит выполнить множество умных функций прямо на устройствах. Такой подход направлен на увеличение скорости обработки данных и доступности функций даже без подключения к интернету. Однако это также означает, что интеллектуальные способности устройств будут ограничены по сравнению с облачными вычислениями.
Работа локальных нейросетей и их преимущества
Модель под кодовым именем Ajax будет работать в двух режимах: автономно и через облако. Локальная обработка данных обеспечивает пользователю мгновенный отклик и повышает конфиденциальность, так как все данные остаются исключительно на устройстве. Этот подход поддерживает философию Apple о приватности данных.
Ограничения и интеграция с сервисами
Из-за ограниченной вычислительной мощности смартфонов, локальные LLM не будут столь продвинуты, как, например, ChatGPT или Google Gemini. Вместо создания полноценного чат-бота Apple интегрирует ИИ как дополнения к существующим приложениям и функциям. По неофициальной информации это будут следующие умные функции:
- Автоматические плейлисты в Apple Music.
- Обновлённый поиск Spotlight и помощник Siri.
- Подсказки и обобщение сообщений в iMessage.
- Виртуальный тренер в Apple Health.
- Помощник по кодированию в Xcode.
Улучшения в аппаратной части ограничит ИИ-функции последними моделями iPhone
В iPhone за обработку задач искусственного интеллекта и машинного обучения отвечает сопроцессор Neural Engine. Этот компонент впервые был представлен в 2017 году вместе с чипом A11 Bionic, который дебютировал в iPhone 8 и iPhone X.
Neural Engine оптимизирован для выполнения сложных математических расчётов, которые требуются при работе с нейросетями, что позволяет выполнять такие задачи, как распознавание образов, обработка естественного языка, и анализ аудио. Это не только ускоряет работу приложений, использующих ИИ, но и существенно снижает потребление энергии по сравнению с обработкой тех же задач центральным процессором.
С каждым новым поколением чипов Apple производительность Neural Engine значительно увеличивается. Например, в A11 Bionic он мог выполнить до 600 миллиардов операций в секунду. К моменту выпуска iPhone 15 Pro, этот показатель вырос до 35 триллионов операций в секунду благодаря улучшениям в архитектуре Neural Engine, встроенного в чип A15 и последующие модели. В рейтинге бенчмарка Geekbench ML, который используется для оценки производительности машинного обучения и искусственного интеллекта устройств, мобильные устройства Apple занимают первые восемь мест.
Для поддержания ещё более сложных задач, новые модели iPhone будут оснащены улучшенным нейропроцессором, что, скорее всего, ограничит доступность большинства передовых функций ИИ только для последнего поколения устройств.
Обновления программ, что нового
• NVIDIA GeForce Game Ready 576.15 Hotfix для Windows 11 и Windows 10. Исправление проблем с RTX 50 и мониторингом температуры
• Apple выпустила третью бета-версию iOS 18.5 для разработчиков
• Новый драйвер NVIDIA 576.02 решает проблемы в Windows 11, но ломает отображение температуры видеокарты
• Grok для iPhone получил функцию «зрения»: ИИ-помощник описывает объекты через камеру
• Обновление Reg Organizer 9.70: Улучшения инструментов «Программы» и «Автозапуск программы»
• Osprey: Browser Protection – многоуровневая защита от различных онлайн-угроз в браузере