La firme à la pomme dépenserait « des millions de dollars par jour » pour entraîner ses grands modèles de langage qui sous-tendent de futurs outils d’IA génératives.
Selon une enquête de The Information (en anglais), Apple investit des « millions de dollars par jour » dans l’intelligence artificielle. La firme à la pomme travaillerait sur plusieurs grands modèles de langage et des outils d’IA génératives au sein de différentes équipes internes.
Apple reste flou sur ses projets autour de l’IA…
Selon l’enquête de The Information, le département d’Apple qui travaille sur l’IA conversationnelle s’appelle « Foundational Models » (Modèles Fondamentaux en français) et compte environ 16 membres, dont des anciens ingénieurs en IA de Google. Cette équipe est dirigée par John Giannandrea, le responsable de l’IA chez Apple, qui est arrivé dans l’entreprise en 2018 pour aider à améliorer l’assistant vocal Siri. Par le passé, ce dernier aurait « exprimé son scepticisme à ses collègues quant à l’utilité potentielle des chatbots alimentés par des modèles de langage IA », ce qui pourrait expliquer en partie pourquoi la firme à la pomme ne s’est pas « précipitée » sur ce secteur contrairement à ses concurrents (Microsoft et Google en particulier).
Toujours selon l’article de The Information, d’autres départements au sein d’Apple travaillent également sur l’intelligence artificielle. Une équipe « Visual Intelligence » (Intelligence Visuelle en français) serait chargée de développer un modèle IA pour la génération d’images. Un autre groupe serait dédié à l’étude d’une « IA multimodale capable de reconnaître et de produire des images ou des vidéos aussi bien que du texte ».
Les modèles IA de l’entreprise pourraient servir à diverses fins. Un chatbot serait en cours de développement pour « interagir avec les clients qui utilisent AppleCare », un autre faciliterait l’automatisation de certaines tâches à plusieurs étapes dans l’assistant virtuel Siri. Des personnes impliquées dans le projet ont déclaré à The Information que le grand modèle de langage (LLM) le plus avancé d’Apple, connu en interne sous le nom de code Ajax GPT, a été entraîné sur « plus de 200 milliards de paramètres ». Ce dernier serait plus puissant que le modèle GPT-3.5 d’OpenAI qui avait été dévoilé en fin d’année dernière dans la version publique initiale de ChatGPT. Néanmoins, ce modèle resterait réservé pour un usage interne et la firme à la pomme n’a pour l’instant pas fait de commentaire sur le rapport de The Information.