La nouvelle IA de Microsoft a un gros avantage sur ChatGPT

Grâce à son partenariat avec OpenAI, Microsoft a la possibilité d’exploiter les modèles de cette entreprise. C’est pour cela qu’actuellement, l’assistant Copilot de la firme de Redmond utilise les technologies GPT-4 et DALL-E 3, qui sont normalement payantes sur l’application ChatGPT. Cependant, tout en bénéficiant de ce partenariat avec OpenAI, Microsoft n’exclut pas les autres laboratoires d’IA, comme la startup française Mistral, avec laquelle il collabore. Et, en même temps, Microsoft travaille sur ses propres technologies.

Phi-3-mini, la nouvelle IA de Microsoft

Cette semaine, d’ailleurs, Microsoft annonce un nouveau modèle d’IA qui, pour certains usages, pourrait être plus intéressant que les modèles d’OpenAI comme GPT-4 ou GPT-3.5. Qualifiées de grands modèles de langage, ces deux technologies ne fonctionnent que sur des serveurs dans le cloud, et requièrent une importante puissance de calcul. De son côté, le nouveau modèle de Microsoft est plutôt considéré comme un “petit modèle de langage”. La première version de ce petit modèle de Microsoft, Phi-3-mini fonctionne en utilisant très peu de ressources. Et cela procure un énorme avantage puisqu’une IA moins gourmande en ressources a un coût de fonctionnement réduit.

“Phi-3 n’est pas légèrement moins cher, il est considérablement moins cher, nous parlons d’une différence de coût 10 fois supérieure à celle des autres modèles dotés de capacités similaires”, a déclaré Sébastien Bubeck, vice-président de la recherche GenAI chez Microsoft, selon Reuters. Microsoft explique également, dans une publication scientifique, que Phi-3-mini est un modèle de langage avec 3,8 milliards de paramètres entraîné sur 3,3 billions de jetons, mais dont les performances générales (en s’appuyant sur des mesures académiques) rivalisent avec celles de modèles comme Mixtral 8x7B et GPT-3.5.

Assez petit pour fonctionner sur un smartphone

L’exploit de Microsoft est qu’il a réussi à créer un modèle miniature, mais dont les performances peuvent rivaliser avec GPT-3.5 qui est pourtant le modèle proposé par OpenAI aux utilisateurs de la version gratuite de ChatGPT. Et outre le fait qu’utiliser Phi-3-mini permet aux entreprises de faire des économies, celui-ci est aussi assez petit pour fonctionner localement sur un smartphone. Or, ce fonctionnement local permet à l’IA d’être opérationnelle même sans connexion à internet, d’être plus rapide pour répondre aux utilisateurs, et de répondre aux prompts sans envoyer de données sensibles sur des serveurs.

Selon les explications de Reuters, Microsoft propose Phi-3-mini dans le catalogue d’intelligence artificielle d’Azure, sur la plateforme Hugging Face, et sur Ollama, une plateforme qui permet de faire fonctionner localement des modèles d’intelligence artificielle. Parmi les modèles concurrents de Phi-3-mini de Microsoft, il y a Gemini Nano de Google, qui est également suffisamment petit pour fonctionner sur un smartphone.

Vers une approche similaire pour Apple ?

Sinon, il est à noter qu’Apple pourrait adopter une approche similaire à celle des développeurs de Phi-3-mini, pour apporter l’intelligence artificielle générative sur l’iPhone. En effet, selon la dernière newsletter de Mark Gurman, journaliste chez Bloomberg, tout porte à croire que la firme de Cupertino devrait proposer, sur iOS 18, un modèle de langage que les iPhone pourront faire fonctionner localement, sans l’aide de serveurs dans le cloud. Pour Apple, ce serait l’approche la plus appropriée, puisque les données confidentielles confiées à l’IA ne sortiraient pas de leurs iPhone. Mais pour le moment, il ne s’agit encore que d’une rumeur. Cependant, il est fort probable qu’Apple fera de grosses annonces en lien avec l’IA générative lors de sa conférence WWDC au mois de juin.

  • Microsoft est sur tous les fronts, en matière d’IA : en plus d’exploiter les technologies d’OpenAI, il collabore avec d’autres laboratoires d’IA, et développe aussi ses propres technologies
  • Cette semaine, la firme de Redmond lève le voile sur un “petit” modèle de langage qui est suffisamment petit pour fonctionner localement sur un mobile
    Pourtant, les compétences de cette IA seraient rivaliseraient avec celles de Mixtral 8x7B et GPT-3.5 (le modèle qu’OpenAI propose aux utilisateurs de la version gratuite de ChatGPT)
  • Google a aussi développé un modèle de petite taille (Gemini Nano) et les rumeurs suggèrent qu’Apple pourrait aussi lancer un modèle suffisamment petit pour tourner localement sur l’iPhone

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.