IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple aurait développé une technique qui permet d'exécuter les modèles d'IA localement sur l'iPhone plutôt que sur le cloud,
Selon une étude

Le , par Mathis Lucas

18PARTAGES

9  0 
Les grands modèles de langages (LLM) sont incroyablement gourmands en mémoires et cela constitue un défi majeur à surmonter pour les entreprises. Mais une étude publiée récemment par les chercheurs d'Apple évoque des pistes de solution pour une inférence efficace des modèles d'IA sur les appareils à mémoire limitée, dont les smartphones. Elle suggère qu'Apple a l'intention d'offrir la possibilité aux utilisateurs d'exécuter les modèles d'IA directement sur leurs appareils iOS plutôt que sur le cloud. Apple est en retard par rapport à ses rivaux dans le domaine de l'IA générative, mais les analystes considèrent cette trouvaille comme une percée qui pourrait l'aider à réduire l'écart.

Les chatbots basés sur de grands modèles de langage, comme ChatGPT et Claude, nécessitent généralement de grandes quantités de mémoire pour fonctionner, ce qui représente un défi pour les appareils avec une capacité de mémoire limitée. Les chercheurs en tentent depuis quelques années de relever le défi, mais peu de progrès ont été réalisés, du moins jusque-là. Pour résoudre ce problème, les chercheurs d'Apple ont mis au point une nouvelle technique qui utilise la mémoire flash - la même mémoire que celle où se trouvent vos applications et vos photos - pour stocker les données du modèle d'IA. Ils ont publié un rapport d'étude au début du mois.

L'article a été publié le 12 décembre, mais il a attiré l'attention après avoir été mis en évidence mercredi en fin de journée sur Hugging Face, une plateforme populaire sur laquelle les chercheurs en IA présentent leurs travaux pour des discussions. Il s'agit du deuxième article d'Apple sur l'IA générative ce mois-ci, et il fait suite à des initiatives antérieures visant à permettre à des modèles de génération d'images tels que Stable Diffusion de fonctionner sur ses processeurs personnalisés. Apple, tout comme les autres fabricants d'équipements et de processeurs, espère que les nouvelles fonctions d'IA contribueront à relancer le marché des smartphones.


L'article de recherche est intitulé "LLM in a flash : Efficient Large Language Model Inference with Limited Memory". Dedans, les auteurs notent que la mémoire flash est plus abondante dans les appareils mobiles que la mémoire vive traditionnellement utilisée pour l'exécution des modèles. Ainsi, leur méthode contourne astucieusement cette limitation en utilisant deux techniques clés qui minimisent le transfert de données et maximisent le débit de la mémoire flash :

  1. le fenêtrage : il s'agit d'une méthode de recyclage. Au lieu de charger de nouvelles données chaque fois, le modèle d'IA réutilise une partie des données qu'il a déjà traitées. Cela réduit la nécessité d'aller constamment chercher des données en mémoire, ce qui rend le processus plus rapide et plus fluide ;
  2. regroupement lignes-colonnes : cette technique revient à lire un livre par morceaux plutôt qu'un mot à la fois. En regroupant les données plus efficacement, elles peuvent être lues plus rapidement à partir de la mémoire flash, ce qui accélère la capacité de l'IA à comprendre et à générer du langage.


Selon l'article, la combinaison de ces méthodes permet aux modèles d'IA de fonctionner jusqu'à deux fois la taille de la mémoire disponible de l'iPhone. Cela se traduit par une augmentation de la vitesse de 4 à 5 fois sur les processeurs standard (CPU) et de 20 à 25 fois sur les processeurs graphiques (GPU). Les auteurs ont écrit : « cette avancée est particulièrement cruciale pour le déploiement de modèles avancés dans des environnements à ressources limitées, ce qui élargit leur applicabilité et leur accessibilité ». Les analystes affirment qu'il s'agit d'une avancée majeure qui ouvre la voie à de nouvelles possibilités pour les futurs appareils d'Apple.

Les travaux d'Apple sur l'IA générative pourraient éventuellement être intégrés à son assistant vocal Siri. Les possibilités comprennent de nouvelles fonctionnalités plus avancées sur Siri, la traduction en temps réel et des fonctions sophistiquées basées sur l'IA dans les domaines de la photographie, de la réalité virtuelle et de la réalité augmentée. Cela ouvre également la voie à l'utilisation d'assistants d'IA complexes et de chatbots sur les iPhone, ce que la firme de Cupertino serait déjà en train de faire. Selon certaines sources, Apple a organisé en février un sommet sur l'IA et a informé les employés de ses travaux sur les grands modèles de langage.

Selon les analystes, Apple vise une version plus intelligente de Siri, profondément intégrée à l'IA. Apple prévoit d'actualiser la façon dont Siri interagit avec l'application iMessage, afin de permettre aux utilisateurs de répondre à des questions complexes et de compléter automatiquement des phrases de manière plus efficace. En outre, Apple aurait l'intention d'ajouter l'IA à autant d'applications que possible sur ses plateformes. Apple a été largement écartée de la vague d'enthousiasme pour l'IA générative qui a déferlé sur la Silicon Valley au cours des derniers mois, notamment après le lancement par OpenAI de son chatbot révolutionnaire ChatGPT.

Plusieurs analystes estiment qu'Apple est à la traîne par rapport à ses rivaux, bien qu'il ait embauché le plus haut responsable de l'IA de Google, John Giannandrea, en 2018. Alors que Microsoft et Google se sont largement concentrés sur la fourniture de chatbots et d'autres services d'IA générative sur Internet à partir de leurs vastes plateformes de cloud, les recherches d'Apple suggèrent qu'elle se concentrera plutôt sur une IA qui peut fonctionner directement sur un iPhone. Une initiative qui peut faire une grande différence. Certains rivaux d'Apple, tels que Samsung, se prépareraient à lancer un nouveau type de smartphone à IA l'année prochaine.

Counterpoint Research s'attend à ce que plus de 100 millions de smartphones axés sur l'IA soient livrés en 2024, et que 40 % des nouveaux appareils offrent de telles capacités d'ici à 2027. De son côté, Cristiano Amon, PDG de Qualcomm, le plus grand fabricant de puces mobiles au monde, note que l'introduction de l'IA dans les smartphones créerait de nouvelles expériences pour les consommateurs et inverserait la tendance baissière des ventes de téléphones portables. « Vous verrez des appareils lancés au début de 2024 avec un certain nombre de cas d'utilisation de l'IA générative », a déclaré Amon lors d'une récente interview.

Il a ajouté : « au fur et à mesure que ces choses se développent, elles apportent un changement significatif dans l'expérience de l'utilisateur et permettent une innovation qui a le potentiel de créer un nouveau cycle de mise à niveau dans les smartphones ». Les chercheurs d'Apple ont testé leur approche sur des modèles tels que Falcon 7B, une version plus petite d'un modèle open source développé à l'origine par l'Institut d'innovation technologique d'Abou Dhabi. Bien sûr, les divers articles de recherche publiés par Apple ne sont pas un indicateur direct de la manière dont l'entreprise entend ajouter de nouvelles fonctionnalités à ses produits.

Mais ils offrent un rare aperçu de ses laboratoires de recherche secrets et de ses dernières percées techniques. « Notre travail apporte non seulement une solution à un goulot d'étranglement informatique actuel, mais crée également un précédent pour les recherches futures. Nous pensons qu'à mesure que la taille et la complexité des modèles augmentent, des approches comme celle-ci seront essentielles pour exploiter tout leur potentiel dans une large gamme d'appareils et d'applications », indique le rapport de l'étude. Par ailleurs, des rapports signalent qu'Apple serait en train de développer son propre modèle d'IA générative appelé "Ajax".

Conçu pour rivaliser avec les modèles GPT-3 et GPT-4 d'OpenAI, Ajax aurait 200 milliards de paramètres, ce qui suggère un niveau élevé de complexité et de capacité en matière de compréhension et de génération de langage. Appelé "Apple GPT" en interne, Ajax viserait à unifier le développement de l'apprentissage automatique au sein d'Apple, ce qui suggère une stratégie plus large visant à intégrer plus profondément l'IA dans l'écosystème d'Apple. Ajax serait plus performant que la génération précédente GPT 3.5. Cependant, les modèles plus récents d'OpenAI pourraient avoir progressé au-delà des capacités d'Ajax à partir de septembre 2023.

L'analyste Jeff Pu affirme qu'Apple proposera une sorte de fonction d'IA générative sur l'iPhone et l'iPad vers la fin de l'année 2024, date à laquelle iOS 18 sortira. Il a déclaré en octobre qu'Apple a construit quelques centaines de serveurs d'IA en 2023, et en construira probablement plus en 2024. Apple proposerait une combinaison d'IA basée sur le cloud et d'IA avec traitement sur l'appareil. Enfin, la firme de Cupertino a lancé discrètement au début du mois une série de nouveaux outils d'apprentissage automatique.

Source : rapport d'étude (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'inférence des modèles d'IA directement sur l'iPhone plutôt que sur le cloud ?
Quels impacts les recherches d'Apple pourraient-elles avoir sur l'entreprise et sur le domaine de l'IA en général ?
Selon vous, quels sont les cas d'utilisation possibles avec l'inférence des modèles d'IA directement sur les smartphones ?

Voir aussi

Apple testerait en interne un modèle de langage appelé "Apple GPT" et développerait des outils d'IA générative pour concurrencer OpenAI, ces outils pourraient servir à renforcer Siri à l'avenir

Apple dépenserait "des millions de dollars par jour" pour l'IA, Apple a pris le train de l'IA comme tout le monde, selon le rapport de The Information

Surpris par le boom de l'IA générative, Apple envisagerait de dépenser 1 milliard de dollars par an pour rattraper son retard, selon un rapport

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 28/05/2024 à 11:20
Citation Envoyé par Aesir Voir le message
Rarement vu un tel commentaire entremêlant boomer + "j'ai vu ça dans mon entourage donc c'est global"


Rarement vu un freluquet venir démontrer qu'il n'a aucun niveau pour discuter et aucuns argument à part le sempiternel "ouin le boomer" il aime pas Apple pis c'est même pas des voleurs puisqu'ils en vendent pleins, "y'a que la masse qui à raison lol". Je DIS EN DEBUT DE COMMENTAIRE que je le constate autour de moi et que c'est un épi phénomène...

Votre génération puisque vous aimez tant raisonner en générations (comme si ça avait un sens, j'ai 33 ans ) va bien se faire pigeonner dans les grandes largeur par des gens plus âgés que vous qui ont bien compris comment vous faire gober tout et n'importe quoi en vous le présentant comme de l'innovation inéluctable. Et vous applaudirez

Je passe sur la vulgarité et la bassesse de votre commentaire, surtout ne prenez pas la peine de répondre à ce que je dis dans le fond.

Allez je vous laisse demander à ChatGPT d'écrire des messages à votre grand mère et vous expliquer le code que vous devriez connaitre vu que vous avez l'air en avance dans le turfu, il y a peut-être déjà l'IA dans vos basket, c'est surement génial et super utile.
3  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 27/05/2024 à 17:11
C'est peut-être un épi phénomène autour de moi mais je vois pleins de monde commencer à se fatiguer/s'agacer des iphones.

Moi même j'ai migré sur android cette année.

Marre des mises à jour qui rendent un téléphone aussi utile qu'une brique si on en rachète pas un assez puissant. J'achetais des iphones d'occasion jusque la et systématiquement je le bazarde parce que Ios m'empèche littéralement de l'utiliser : ralentissement, bug d'affichage, verrouillage intempestif, lag abominable sur un téléphone plus puissant que tout les ordis qui sont allés sur Lune...

Je pense que de plus en plus de gens vont décider qu'on s'est assez foutu d'eux.

Jusque la j'aimais bien le principe du compte Icloud : possible de migrer d'un iphone à l'autre TOUTE ses données comme si on avait le même téléphone.

Cet avantage ne suffit plus à contrebalancer le fait qu'ils se foutent de leurs utilisateurs.

D'ailleurs j'ai jamais supporté les changements de taille qui en ont fait une sorte de tablette pour fashionistas :
2G/3G/3GS/4/4S : 3,5 pouces. (les meilleures générations, j'ai eu la chance de tous les avoirs)
5/5s/5c/SE1 : 4 pouces. -> commence à faire mal aux mains
6/6s/7/8/SE2/SE3 : 4,7 pouces.
6Plus/6S Plus/7 Plus/8 Plus: 5,5 pouces.
X/XS/11 Pro : 5,8 pouces.
XR/11 : 6,1 pouces. -> la c'est de la torture à l'utilisation

du coup je pense pas qu'en empilant CHATGPT la dessus ça suffira a vendre des Iphone qui valent le prix de mon Kangoo d'occasion (qui cela dit m'emmène en vacance, LUI ).

Et puis bon est ce qu'il faut faire une requête ChatGPT qui consomme plus d'énergie qu'une transaction en bitcoin pour connaitre la recette de la tarte au pomme ? C'est une aberration.

Après j'ai l'impression que les gens achètent ce dont ils ont le moins besoin tant que dans leur tête ça donne du "crédit social".
2  1 
Avatar de Fluxgraveon
Membre régulier https://www.developpez.com
Le 14/06/2024 à 15:26
Tim Cook, le PDG d'Apple, a exprimé des réserves quant à la capacité de l'entreprise à éliminer complètement les hallucinations de l'IA dans son nouveau système Apple Intelligence.
Pour les humains, la prise en charge (symptomatique) est basée sur l'utilisation de neuroleptiques.
Pour l'IA, voir peut-être du côté des leptons ?
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 14/06/2024 à 16:03
Tim Cook n'est pas sûr et le 100% des vrais chercheurs en IA savent qu'il n'est pas possible de supprimer les hallucinations des IA.

Pour la bonne raison que depuis le début de l'IA, personne n'a été capable d'expliquer le pourquoi des hallucinations et cela pour une raison simple, une vraie IA est un système neuronal qui apprend par lui-même sans que l'on sache vraiment par quel moyen il apprend: Par exemple, on enseigne à une IA à reconnaitre des oranges sur une photo. Sur quelle base est-ce que l'IA en question va conclure qu'il s'agit d'une orange? Parce qu'elle y voit une boule de couleur orange? Parce qu'elle prend en compte une série de pixels sur la photo qui étant de couleur orange permet de conclure à la présence du fruit? Etc, etc, etc...

Au final, supprimer les hallucinations des IA revient à pouvoir répondre à la question "Qui est le premier de l'oeuf ou de la poule?"

Mais bon dire la vérité n'est pas la caractéristique première d'un commerçant, tel le vendeur de poisson faisandé, Tim Cook crie à l'envie " Il est frais mon poisson... Il est frais!"
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 11/06/2024 à 10:50
"Elon Musk qualifie lintégration de ChatGPT au niveau de l'OS de violation de sécurité inacceptable"

Tiens pour une fois je suis en accord avec lui, ces pseudo AI n'ont rien à faire sur mes machines.

Je suis le seul à administrer les OS que j'utilise et je ne veux en aucun cas qu'une pseudo AI fasse je ne sais pas quoi comme bêtises dans mon dos !!!
0  0 
Avatar de jpdeniel
Futur Membre du Club https://www.developpez.com
Le 12/06/2024 à 2:03
Le big boss de Apple a longtemps continuer sur la stratégie lancée par Steve Jobs mais maintenant qu'il se retrouve confronté à des innovations qui n'était pas encore au goût du jour de l'air de si, on voit son manque de clairvoyance. Il ferait bien de passer la main.
0  0 
Avatar de Fluxgraveon
Membre régulier https://www.developpez.com
Le 14/06/2024 à 15:37
J'ajoute :
sur le plan nootique, (comprenez au carrefour de la noétique et des fonctions cérébrales), il peut-être intéressant d'utiliser "l'hyperart Thomasson" (à titre indicatif, cela est émis par Ijin, prosôpon ).
Cette affaire d'hallucinations n'a rien d'étonnant, s'agissant d'une création humaine (cf. l'expérience "Norman" du M.I.T, merci)
1  1 
Avatar de Aesir
Membre du Club https://www.developpez.com
Le 28/05/2024 à 7:37
Citation Envoyé par Jules34 Voir le message
C'est peut-être un épi phénomène autour de moi mais je vois pleins de monde commencer à se fatiguer/s'agacer des iphones.

Moi même j'ai migré sur android cette année.

Marre des mises à jour qui rendent un téléphone aussi utile qu'une brique si on en rachète pas un assez puissant. J'achetais des iphones d'occasion jusque la et systématiquement je le bazarde parce que Ios m'empèche littéralement de l'utiliser : ralentissement, bug d'affichage, verrouillage intempestif, lag abominable sur un téléphone plus puissant que tout les ordis qui sont allés sur Lune...

Je pense que de plus en plus de gens vont décider qu'on s'est assez foutu d'eux.

Jusque la j'aimais bien le principe du compte Icloud : possible de migrer d'un iphone à l'autre TOUTE ses données comme si on avait le même téléphone.

Cet avantage ne suffit plus à contrebalancer le fait qu'ils se foutent de leurs utilisateurs.

D'ailleurs j'ai jamais supporté les changements de taille qui en ont fait une sorte de tablette pour fashionistas :
2G/3G/3GS/4/4S : 3,5 pouces. (les meilleures générations, j'ai eu la chance de tous les avoirs)
5/5s/5c/SE1 : 4 pouces. -> commence à faire mal aux mains
6/6s/7/8/SE2/SE3 : 4,7 pouces.
6Plus/6S Plus/7 Plus/8 Plus: 5,5 pouces.
X/XS/11 Pro : 5,8 pouces.
XR/11 : 6,1 pouces. -> la c'est de la torture à l'utilisation

du coup je pense pas qu'en empilant CHATGPT la dessus ça suffira a vendre des Iphone qui valent le prix de mon Kangoo d'occasion (qui cela dit m'emmène en vacance, LUI ).

Et puis bon est ce qu'il faut faire une requête ChatGPT qui consomme plus d'énergie qu'une transaction en bitcoin pour connaitre la recette de la tarte au pomme ? C'est une aberration.

Après j'ai l'impression que les gens achètent ce dont ils ont le moins besoin tant que dans leur tête ça donne du "crédit social".
Rarement vu un tel commentaire entremêlant boomer + "j'ai vu ça dans mon entourage donc c'est global"
0  3