Alvin, le submersible de recherche de l’United States Navy, a récemment bénéficié d’une transformation très importante. Grâce à un investissement pharaonique de 50 millions de dollars, ce sous-marin est capable de s’immerger jusqu’à une profondeur vertigineuse de 6 500 mètres, lui ouvrant ainsi les portes de 99 % des fonds océaniques. Pour la rcommunauté scientifique, c’est certainement le synonyme de découvertes d’écosystèmes inconnus et d’organismes qui restaient jusqu’alors inaccessibles.
Lisa Levin, écologiste marine et océanographe biologique à l’Université de Californie à San Diego, se réjouit de cette opportunité. « Les gens savent qu’ils sont là », déclare-t-elle, faisant référence aux créatures mystérieuses des abysses. « Mais personne ne les a véritablement observées ». En effet, les océans sont encore largement inconnus tant l’accès aux biomes les plus profonds est complexe. D’où l’importance d’initiatives comme celle-ci ou comme le robot RAD2.
Alvin : Un géant de l’exploration sous-marine
Depuis son lancement il y a 60 ans, Alvin a indéniablement bouleversé le paysage de la recherche océanique. Ce submersible a permis de nombreuses avancées en océanographie : découverte des monts hydrothermaux en 1977, étude avancée de la tectonique des plaques et topographie précise des océans.
Initialement capable de s’immerger à une profondeur de 2 000 mètres, Alvin a vu sa capacité s’étendre à 4 500 mètres, couvrant ainsi 68 % du vaste plancher océanique. D’autres nations telles que la France, la Russie, le Japon et la Chine ont construit également des submersibles dans capables d’atteindre des profondeurs vertigineuses de 6 500 mètres ou plus. En 2020, la Chine a dévoilé avec fierté le Fendouzhe, apte à plonger à plus de 10 000 mètres avec trois personnes à son bord.
La dernière mise à niveau d’Alvin était espérée depuis très longtemps. Autorisée par la National Science Foundation en 2004, cette amélioration devait initialement aboutir à un nouveau submersible de 22 millions de dollars d’ici 2007. Néanmoins, des dépassements de coûts imprévus et des difficultés techniques inattendues ont retardé le projet.
Finalement, les gestionnaires ont décidé de rénover le sous-marin déjà existant. Aujourd’hui, Alvin est fièrement équipé d’une coque en titane plus épaisse, de joints renforcés, d’un intérieur plus spacieux, de caméras améliorées et d’un panier à échantillons plus grand. Cela permettra aux scientifiques d’explorer des zones auparavant totalement inconnues, explique Jeffrey Marlow, microbiologiste environnemental à l’Université de Boston.
Exploration des écosystèmes profonds
Les nouvelles ahbiletés d’Alvin offre aux scientifiques des perspectives inédites et passionnantes pour l’exploration sous-marine. Il pourra emmener des équipages jusque dans les plaines abyssales, vastes étendues plates recouvertes de sédiments à près de 6 000 mètres de profondeur. Ces zones sont parsemées de roches riches en minéraux précieux, cibles très convoitées par l’industrie minière.
Pour compenser les limitations de l’appareil, deux nouveaux véhicules autonomes (AUVs), Orpheus et Eurydice, accompagneront le sous-marin dans son futur périple, prévu en Alaska. En effet, si Alvin peut désormais explorer 99 % des fonds océaniques, le 1 % restant lui reste inaccessible. Même si cela peut paraître peu, cela correspond en réalité à plus de la moitié des profondeurs océaniques. Ces deux engins sont conçus pour être peu coûteux et faciles à remplacer, une stratégie pragmatique. Ils cartographieront méticuleusement les zones à explorer et pourront effectuer des recherches indépendamment d’Alvin : extraction de carottes de sédiments ou prise de photos haute définition par exemple.
De plus en plus, les submersibles robotisés gagnent en sophistication. Pour certains experts, comme Weicheng Cui de l’Université de Westlake en Chine, la fin des sous-marins habités approche. Mais d’autres, comme Lisa Levin pensent l’inverse et affirment que rien ne remplacera l’expérience directe. Il faut dire que la chercheuse a déjà plongé 50 fois avec Alvin et que selon elle, voir de ses propres yeux les merveilles que recèlent les profondeurs reste d’une importance première. Dans tous les cas, Alvin n’a sûrement pas fini de nous livrer tous les secrets de nos océans et, fort de sa nouvelle mise-à-jour, il est certainement parti pour quelques décennies de loyaux services.
Alvin, le submersible de l’United States Navy vient de bénéficier d’importantes améliorations.
Il pourra désormais plonger à 6 500 mètres de profondeur pour étudier les écosystèmes profonds.
Une capacité qui lui permettra de naviguer dans 99 % des fonds marins.
La robotique, comme l’IA, sont deux domaines en pleine effervescence. D’un côté, nous avons des robots de plus en plus capables : Figure 01 qui utilise le LLM d’Open AI, Atlas, l’acrobate de Boston Dynamics ou encore les robots tueurs d’Onyx Industries. De l’autre, des chatbots alimentés avec des modèles de langage toujours plus avancés comme Claude 3 ou le futur ChatGPT-5. La synergie entre ces deux secteurs pourrait bien complètement renverser certains domaines : industrie, assistance personnelle, logistique ou agriculture.
Les fondations de l’IA au service de la robotique
Les géants de la tech comme OpenAI et Google DeepMind se consacrent désormais à incorporer des algorithmes d’apprentissage avancés au cœur même des robots. Ces derniers, communément désignés sous l’appellation de « foundation models », confèrent aux robots la capacité d’acquérir des connaissances générales et, par conséquent, de s’adapter aisément à une vaste gamme de tâches. Pour Gerard Andrews, un responsable marketing chez Nvidia, un vent de changement souffle. « Nous avons la conviction profonde que nous nous trouvons au seuil d’une transformation radicale en robotique ».
Ces foundation models exploitent des réseaux de neurones mimant la structure du cerveau humain. Ils sont dotés d’une faculté singulière : celle d’apprendre à partir de vastes ensembles de données hétéroclites, englobant textes et images. Cette immense quantité d’informations leur permet d’acquérir une compréhension contextuelle approfondie. À titre d’illustration, Gr00t, le modèle généraliste lancé par Nvidia en mars dernier, conçu spécifiquement pour les robots humanoïdes, manifeste une disposition à l’apprentissage et à l’adaptation assez stupéfiante.
Google DeepMind, quant à elle, a développé un modèle avancé baptisé Robotic Transformer 2 (RT-2). Celui-ci est capable de manœuvrer un bras robotique mobile fabriqué par sa société sœur, Everyday Robots. En puisant dans des données glanées sur Internet et à partir de vidéos de robots en action, RT-2 est en mesure de suivre des instructions, même pour des tâches auxquelles il n’a jamais été confronté.
Enrichir l’IA par l’expérience physique
L’expérience tangible des robots s’avère fondamentale pour enrichir les facultés cognitives de l’intelligence artificielle. Selon Akshara Rai, chercheur en IA chez Meta, « La dernière marche à gravir vers une véritable intelligence réside indéniablement dans l’intelligence physique ». Une opinion proche de celle du PDG de Huawei.
En d’autres termes, les interactions physiques des robots avec leur environnement immédiat sont nécessaires pour développer une intelligence artificielle véritablement générale et efficace. L’intégration des données physiques permet aux robots d’affiner considérablement leur compréhension et leur capacité d’adaptation à des environnements variés, conférant ainsi à l’IA une robustesse et une polyvalence accrues. Un échange de bons procédés, en somme.
Boston Dynamics illustre parfaitement cette approche en déployant ses robots comme Atlas, lequel, grâce à une cartographie détaillée de son environnement, peut exécuter des mouvements complexes très complexes : parkour, transport d’objet, danse, etc.
L’IA et la robotique : un avenir encore à construire
Malgré les immenses progrès réalisés dernièrement, la route est encore longue. Harold Soh, spécialiste en interactions humain-robot, exprime son scepticisme quant à l’impact immédiat de ces technologies. Selon lui, les foundation models pour la robotique doivent certes être explorés, mais il reste tout de même prudent à propos de la prétendue révolution prédite par certains chercheurs enthousiastes. Parmi les obstacles à surmonter figurent la nécessité de disposer de vastes quantités de données spécifiques pour l’apprentissage des robots, ainsi que les préoccupations légitimes liées à la sécurité et à la fiabilité des systèmes robotiques.
De plus, les chercheurs soulignent avec insistance que les foundation models requièrent des ensembles de données massifs et diversifiés pour former efficacement les robots. Justement, à l’heure actuelle, il n’existe aucun ensemble de données suffisant comme on peut le voir pour les chatbots.
L’IA va-t-elle révolutionner la robotique ? La perspective est séduisante, mais il nous faudra encore une bonne dose de patience. Certes, les démonstrations de certains robots sont à n’en pas douter très impressionnantes, mais il convient de garder à l’esprit qu’elles ne sont finalement que de simples démonstrations. Un déploiement opérationnel à grande échelle de ces technologies reste encore une réalité assez lointaine. Réalité de laquelle nous nous rapprochons tout de même de plus en plus chaque jour grâce aux efforts des chercheurs et autres professionnels de ces secteurs.
Actuellement, certains géants de la tech développent des modèles d’IA spécifiquement conçus pour s’intégrer dans des robots : les foundations models.
Le lien physique du robot avec son environnement est ce qui conférera plus tard à l’IA une toute autre efficacité.
La mage de progrès reste cependant encore assez large avant d’imaginer et de voir le développement à grande échelle de robots doués d’une véritable intelligence.
Je joue avec l'intelligence artificielle <a href="https://fr.wikipedia.org/wiki/Lisp">depuis que Lisp est à la pointe de la technologie</a>. C'est-à-dire depuis longtemps… Dernièrement, comme tout le monde, je me suis intéressé de plus près à la nouvelle vague de l'IA. Je ne suis pas très impressionné. Mais pas parce qu'<a href="https://www.bfmtv.com/tech/intelligence-artificielle/pourquoi-open-ai-n-a-finalement-pas-copie-la-voix-de-scarlett-johansson-pour-chat-gpt_AV-202405240627.html">OpenAI n'a pas respecté les droits de Scarlet Johannson</a>. Ni parce que <a href="https://www.huffingtonpost.fr/insolite/video/pourquoi-l-intelligence-artificielle-de-google-vous-conseille-de-mettre-de-la-colle-sur-votre-pizza_234350.html">l'IA de Google recommande d'utiliser de la colle pour faire adhérer le fromage à la pizza</a>. C'est surtout que tout simplement lorsque je dis au chatbot de résumer une transcription de Otter.ai d'une réunion, il se trompe. C'est pourquoi je traite les résultats de mes requêtes d'IA avec beaucoup, beaucoup de prudence. Mais j'ai enfin trouvé un chatbot d'IA dont je peux facilement revérifier le travail pour m'assurer qu'il reste dans les clous. C'est <a href="https://www.perplexity.ai/">Perplexity</a>. Cela n'a l'air de rien, mais c'est une caractéristique essentielle. Perplexity a également des hallucinations. Mais il valorise les données provenant de sources dignes de confiance. Voici donc ce qu'il peut faire et pourquoi il est devenu mon chatbot IA préféré. <h2>1. Fiable pour la recherche</h2> La qualité et les spécifications de Perplexity en font un véritable outil de recherche. Un exemple. J'ai fait un travail de doctorat sur le Dr Norman Leys, un anti-impérialiste du 20e siècle. Perplexity m'a donné un bon résumé de sa carrière et, surtout, m'a orienté vers les études universitaires qui traitent de sa vie. D'autres chatbots d'IA m'ont donné des informations beaucoup plus larges et parfois inexactes. Et sans me montrer leurs sources. C'est au contraire ce que fait Perplexity dans tous les domaines qu'il couvre. Qu'il s'agisse de recherches universitaires, d'investissements ou de sports, Perplexity peut traiter des requêtes complexes et fournir des réponses précises, détaillées et adaptées au contexte. Avec les sources. <h2>2. Qualité des sources et des citations</h2> Un autre élément qui fait de Perplexity un excellent outil de recherche est la qualité de ses sources. Il recueille notamment ses données à partir d'études universitaires et d'autres sources fiables. La fonction Focus de Perplexity vous permet également d'affiner vos recherches et d'éviter certaines sources. Par exemple lors de ma recherche sur Norman Leys, j'ai demandé à Perplexity de n'utiliser que des sources académiques, d'éviter Wikipédia et d'autres sites moins fiables. De même, si vous avez besoin d'informations utiles sur la manière de réparer votre machine à laver, vous pouvez lui demander de se concentrer uniquement sur les vidéos YouTube. Oui, ChatGPT et Copilot proposent désormais des citations. Mais Perplexity va plus loin. Par exemple, s'il est possible qu'une partie de la réponse provienne de Reddit, il vous indiquera où trouver l'article spécifique qu'il cite. Vous pouvez alors vérifier par vous-même si l'information est digne de confiance! Le programme m'indique également, et c'est unique, lorsqu'il ne trouve pas de réponse. Les autres inventent trop souvent des réponses. Bref, bien qu'il soit aussi sujet à des hallucinations comme tous les LLM, Perplexity semble essayer de s'en tenir aux faits. <h2>3. Profondeur et organisation</h2> Là où Perplexity se distingue des autres encore une fois, c'est qu'il fourni des questions supplémentaires pour poursuivre la recherche. Bref, quel que soit le sujet qui vous intéresse, Perplexity vous aidera à l'approfondir. Et lorsque vous examinez une question, la fonction Collections vous aide à organiser vos découvertes et vos réflexions de manière structurée. Vous pouvez garder vos notes de recherche pour vous ou les partager avec un maximum de cinq collègues ou amis. Enfin, l'application, disponible pour Android et iOS, facilite l'usage de Perplexity AI sur votre smartphone. <h2>4. Intégration avec plusieurs LLM</h2> Contrairement à d'autres chatbots d'IA populaires, Perplexity AI exploite plusieurs LLM. Il peut donc obtenir des réponses de Claude, GPT-4o et Mistral, en plus de ses propres modèles. Cette approche multimodèle vous permet de choisir le meilleur modèle pour vos besoins spécifiques. Mais aussi d'améliorer la flexibilité et la précision des réponses. La version Pro vous permet de basculer entre les différents LLM. Pour passer d'un modèle à l'autre, procédez comme suit : <ul> <li>Ouvrez Perplexity AI sur votre navigateur et connectez-vous à votre compte.</li> <li>Cliquez sur l'icône en forme de roue dentée dans le coin inférieur gauche de l'interface pour ouvrir le menu des paramètres.</li> <li>Dans ce menu, recherchez la section du modèle IA sous la sous-section Perplexity Pro.</li> <li>Sélectionnez l'un des modèles disponibles, notamment GPT-4 Turbo, Claude 3, Mistral et le modèle expérimental de Perplexity.</li> <li>Après avoir sélectionné le modèle de votre choix, veillez à enregistrer les modifications</li> </ul> <h2>5. Infos et recherche optimisées</h2> Perplexity tire des informations du Web en temps réel, <a href="https://www.zdnet.fr/actualites/openai-voici-tout-ce-qui-devient-gratuit-392368.htm">une fonctionnalité qui vient tout juste d'arriver dans la version gratuite de ChatGPT</a>. Alors que de nombreux chatbots s'appuient sur des ensembles de données statiques, Perplexity met continuellement à jour sa base de connaissances en indexant le Web quotidiennement. Ce qui signifie que j'obtiens des informations pertinentes pour mes questions. Perplexity est particulièrement doué pour extraire des informations pertinentes d'articles récents. Ainsi, bien que vous ne puissiez pas obtenir des informations de dernière minute par l'intermédiaire du chatbot, vous pouvez avoir quand même des informations actualisées. L'outil utilise également la recherche contextuelle pour combler le fossé entre les moteurs de recherche traditionnels et les LLM. Il vous permet d'effectuer des recherches structurées qui vous aideront à trouver exactement ce que vous cherchez, plutôt que d'espérer que les bons mots-clés vous donneront la réponse souhaitée sur la première page de résultats. <h2>Une utilisation en croissance</h2> Je préfère de loin cette expérience utilisateur à celle de Google, qui balance plein de publicités et d'absurdités générées par l'IA. Et je ne suis peut-être pas le seul à préférer Perplexity. Une étude récente de la société d'analyse SEO BrightEdge a révélé que "les renvois de Perplexity vers des sites de marque augmentent de près de 40 % d'un mois sur l'autre depuis janvier". En d'autres termes, les gens utilisent Perplexity pour la recherche. Si vous n'avez pas besoin de Perplexity pour effectuer des recherches sur le Web ou dans les actualités, et que vous avez simplement besoin d'une réponse à une question de programmation, vous pouvez cliquer sur le bouton Focus et le faire passer en "mode écriture". Vous n'obtiendrez alors que des résultats provenant des LLM de Perplexity. Les résultats ressembleront davantage à ceux que ChatGPT et d'autres chatbots d'IA. <h2>Les limites de Perplexity</h2> Dans l'ensemble, Perplexity AI est mon choix parmi les autres chatbots parce qu'il est excellent dans la recherche détaillée, mais il peut aussi faire des traductions, rédiger des résumés de documents et répondre à des questions simples et complexes. De plus, vous pouvez l'utiliser pour créer des poèmes, du code, des messages électroniques et des articles. Mais il ne fait pas tout. Contrairement à d'autres chatbots, tels que Microsoft Copilot ou ChatGPT avec DALL-E 3, Perplexity n'inclut pas de fonctionnalité gratuite de création d'images d'IA. Vous pouvez vous abonner à Perplexity Pro (40 $ par mois ou 400 $ par an) pour bénéficier d'outils de création d'images d'IA de base, mais ils n'égalent pas les meilleurs générateurs d'images d'IA. <i>Source : <a href="https://www.zdnet.com/article/5-reasons-why-i-prefer-perplexity-over-every-other-ai-chatbot/" target="_blank" rel="noopener">"ZDNet.com"</a></i>
Le Vision Pro d’Apple a fait couler beaucoup d’encre depuis sa sortie. Au-delà de son interface logicielle que beaucoup trouvent particulièrement réussie, le format, assez lourd, et l’autonomie sur batterie relativement courte – en plus d’un tarif particulièrement salé – sont autant de défauts qui peinent à convaincre les utilisateurs potentiels.
Ce genre de produit, présenté par Apple comme par d’autres comme le début de l’ère du “spatial computing” (comprenez un ordinateur qui tire au maximum parti de la réalité virtuelle pour maximiser votre productivité) est peut-être l’avenir.
Ces lunettes fines et légères sont-elles la solution pour démocratiser le “spatial computing” ?
Mais la copie semble encore très perfectible. En réalité, il semble que ce qu’il manque à la catégorie pour réellement séduire un public large, est un hardware particulièrement fin et léger, semblable à des lunettes classiques. Le tout sans compromis au niveau de la partie réalité mixte / virtuelle.
Un rêve sans doute réalité d’ici quelques années, mais qui reste pour l’instant inaccessible d’un point de vue technologique, malgré des évolutions et un rythme d’innovations particulièrement soutenu dans le secteur. En attendant que tout ce qui fait un produit comme le Vision Pro d’Apple puisse être totalement intégré dans un facteur de forme ultra-léger, la firme Sightful présente une alternative qui semble particulièrement élégante.
Son produit, baptisé Spacetop G1, est fondamentalement un PC portable, dont l’écran est remplacé par des lunettes. Le “lower case” qui comprend le clavier et le trackpad semble identique à un ordinateur classique. De quoi loger au passage pas mal de capacité de batterie.
On y trouve un système d’exploitation propriétaire, SpaceOS, qui permet de placer des fenêtres autour de vous, un peu comme le Vision Pro. À ceci près que ce produit est conçu pour rester statique : pas question de poser une fenêtre dans la cuisine et une autre dans le salon. L’expérience est finalement plus simple, plus orientée purement vers la productivité.
Côté fiche technique, la firme propose une plateforme Qualcomm Snapdragon QCS8550, 16 Go de RAM, et une batterie avec recharge rapide. Les lunettes elles-mêmes proposent deux écrans OLED d’une définition de 1920×1080 pixels par oeil avec un taux de rafraîchissement de 90 Hz. Ces derniers semblent semi-transparents – mais ce n’est hélas pas précisé sur le site.
Les lunettes comprennent des écouteurs et un microphone optimisé pour les visioconférence. Contrairement au Vision Pro, une petite webcam logée dans le casing de l’ordinateur vous permet d’apparaître normalement à l’image, sans besoin de passer par une forme de “persona” qui vous représenterait de façon digitale.
Côté connectivité, en plus du WiFi et du Bluetooth, l’ordinateur dispose d’une connexion 5G. Le produit sera commercialisé 1 900 $ ce qui est une fraction du tarif du casque d’Apple. Initialement, toutefois, il ne sera disponible qu’aux États-Unis avec des premières livraisons prévues pour octobre 2024.
La firme Sightful présente une alternative plutôt séduisante au Vision Pro d’Apple.
Son produit remplace en fait l’écran d’un ordinateur portable… par des lunettes de réalité mixte très légères.
Le tout pour une fraction du prix demandé par Apple.
Nouvelle puce et nouvelle taille. Voilà en résumé les principales nouveautés du dernier iPad Air M2 de 13’’. Sur le papier, pas grand chose à se mettre sous la dent, et pourtant. Pour la première fois de son histoire, l’iPad Air pourrait presque être qualifié de Pro. Il hérite en tout cas de nombreuses technologies de l’iPad Pro M2, lancé il y a maintenant deux ans.
Mais que vaut réellement ce nouvel iPad Air M2 au quotidien ? Est-il plus intéressant que le dernier iPad Pro survitaminé à la puce M4 ? Réponse après plusieurs jours de test.
Prix et disponibilité de l’iPad Air M2
L’iPad Air M2 est disponible à partir de 719 euros en version 11’’ et 969 euros en version 13’’. Apple s’est enfin décidé à ne plus proposer de modèle 64 Go, ainsi l’iPad Air M2 le moins cher intègre 128 Go de stockage.
Chaque modèle se décline en versions 256 Go, 512 Go ou 1 To. Comme toujours chez Apple, le stockage supplémentaire est facturé au prix fort, tout comme les modèles WiFi + Cellular. Voici les prix de toutes les versions proposées au catalogue :
iPad Air M2 11’’ WiFi 128 Go : 719 euros
iPad Air M2 11’’ WiFi 256 Go : 849 euros
iPad Air M2 11’’ WiFi 512 Go : 1 099 euros
iPad Air M2 11’’ WiFi 1 To : 1 349 euros
iPad Air M2 11’’ WiFi + Cellular 128 Go : 889 euros
iPad Air M2 11’’ WiFi + Cellular 256 Go : 1 019 euros
iPad Air M2 11’’ WiFi + Cellular 512 Go : 1 269 euros
iPad Air M2 11’’ WiFi + Cellular 1 To : 1 519 euros
iPad Air 6 11″ 128 Go Wi-Fi au meilleur prixPrix de base : 719 €
Voir plus d’offres
iPad Air M2 13’’ WiFi 128 Go : 969 euros
iPad Air M2 13’’ WiFi 256 Go : 1 099 euros
iPad Air M2 13’’ WiFi 512 Go : 1 349 euros
iPad Air M2 13’’ WiFi 1 To : 1 599 euros
iPad Air M2 13’’ WiFi + Cellular 128 Go : 1 139 euros
iPad Air M2 13’’ WiFi + Cellular 256 Go : 1 269 euros
iPad Air M2 13’’ WiFi + Cellular 512 Go : 1 519 euros (notre modèle de test)
iPad Air M2 13’’ WiFi + Cellular 1 To : 1 769 euros
iPad Air 6 13″ 128 Go Wi-Fi au meilleur prixPrix de base : 969 €
Voir plus d’offres
Ce que j’ai aimé de l’iPad Air M2
Enfin un écran 13’’ !
C’est la nouveauté la plus visible de cette génération d’iPad Air. Pour la première fois de son histoire, le plus populaire des iPad intègre un écran de 13’’ (12,6’’ très exactement). Une proposition bienvenue qui permet de profiter d’une expérience confortable en mobilité.
Ce gain d’espace améliore logiquement l’expérience multimédia, le jeu, la prise de notes, le dessin, le montage vidéo, la retouche photo et plus généralement la productivité. Surtout, cette surface d’affichage compense (un peu) la frustration ressentie face aux limites d’iPadOS (j’y reviendrai).
Pour le reste, Apple ne change pas sa recette. L’iPad Air 2024 reprend le gabarit de son prédécesseur (en 11” évidemment). Pas de cure de minceur (6,1 mm d’épaisseur) ni de format plus compact, Apple ayant préféré (pour des raisons qui nous échappent) faire du modèle Pro sa machine la plus fine au monde. On se console donc avec des coloris plus fun (bleu, mauve, gris sidéral ou lumière stellaire) que celles de l’iPad Pro M4.
Ces nouvelles dimensions permettent de proposer deux iPad Air aux vocations bien différentes. La version 11’’ séduira davantage les dessinateurs, graphistes, joueurs ou amateurs de films/séries. Plus compact, il peut se tenir à une main avec un Pencil dans l’autre pour naviguer ou griffonner.
La version 13’’ se rapproche plutôt d’une tablette de productivité à laquelle on rattache un étui-clavier et, selon les besoins, un stylet. Une alternative à un ultrabook avec ses avantages et ses inconvénients. Toujours est-il que cette version 13’’ est plus difficile à transporter, surtout si on lui ajoute tout l’attirail d’accessoires sus-cités.
Enfin, soulignons que, comme sur l’iPad Pro, la webcam a été repositionnée pour l’utiliser en mode paysage. L’angle de vue lors des visioconférences est donc plus naturel. Le risque d’obstruer la caméra avec son doigt est aussi de l’histoire ancienne.
Performant et endurant
Autre grande nouveauté de cette iPad Air 2024 : l’intégration de la puce M2, la même qui équipait la précédente génération d’iPad Pro. Cet héritage permet de tout faire avec l’iPad Air. Mieux, tout ce que l’iPad Pro M4 fait, le Air en est capable… mais un peu moins vite.
Il faut toutefois utiliser des applications très exigeantes en ressources pour s’en apercevoir. L’export d’une vidéo depuis Final Cut par exemple prend un peu plus de temps. La retouche photo peut aussi nécessiter quelques secondes supplémentaires, encore que… Il faudra solliciter des outils d’intelligence artificielle très avancés pour le voir.
Ainsi, l’iPad Air M2 déploie suffisamment de puissance pour répondre à tous les besoins, y compris ceux des joueurs. À l’instar de l’iPad Pro M2, il peut faire tourner les jeux AAA issus des consoles (par exemple Death Standing, pour ne citer que lui). Que demander de plus ? Une bonne autonomie ?
Pas de problème. S’il ne surpasse pas son prédécesseur, l’iPad Air M2 se montre tout aussi endurant. Déjà une belle prouesse au regard de la puissance délivrée. Comptez une dizaine d’heures d’utilisation avant de passer par la case recharge. Plutôt pas mal pour un produit taillé pour la mobilité.
Ce que j’ai trouvé « bof »
L’écran de 60 Hz seulement
Au risque de décevoir, Apple a choisi de recycler l’écran du précédent iPad Air. On retrouve donc, sur notre modèle de test, une dalle Liquid Retina (jolie appellation pour parler d’IPS LCD) de 13’’ avec la même résolution (264 ppp), la même colorimétrie, le même taux de contraste. Seule la luminosité s’améliore légèrement puisqu’elle peut monter à 600 nits (contre 500 nits pour l’iPad Air M1).
Cette nouvelle génération ne corrige donc pas le principal défaut de la précédente : le taux de rafraîchissement reste bloqué à 60 Hz. Un choix technique que l’on déplore même s’il ne se ressent pas particulièrement au quotidien, iPadOS brillant par la fluidité de ses animations.
Au regard de la qualité d’affichage et de l’expérience proposée par cet iPad Air, ces petits défauts ne sont qu’une demie-déception. Mais déception quand même.
Ce que j’ai moins aimé de l’iPad Air M2
iPadOS est trop frustrant
Comme je l’explique dans mon test de l’iPad Pro M4, l’expérience iPad se révèle frustrante au quotidien. J’aimerais pouvoir vous dire que les tablettes Apple peuvent désormais remplacer un MacBook. Après tout, les puces Apple Silicon délivrent suffisamment de puissance pour répondre à tous les besoins. Hélas, ce n’est pas encore le cas.
Aussi étrange que cela puisse paraître (Apple ayant toujours été reconnu pour son savoir-faire en la matière), l’expérience iPad est limitée par son logiciel. Si iPadOS a bien évolué au fil des années, ses améliorations n’ont pas suivi le rythme des innovations matérielles.
Ainsi, on se sent à l’étroit avec iPadOS, notamment en multitâche. Malgré le déploiement de Stage Manager, la gestion du multi-fenêtrage reste laborieuse. L’iPad Air M2 est donc un superbe outil pour effectuer ses tâches une à une : écrire un long article, se concentrer sur un montage vidéo, retoucher des photos, dessiner etc.
La navigation au sein d’iPadOS à l’aide d’une souris ou d’un trackpad peut aussi tourner à la crise de nerfs, le logiciel étant conçu pour une utilisation tactile. En réalité, il manque à iPadOS ce petit zeste de macOS qui permettrait de faire de l’iPad l’outil de productivité parfait en mobilité. Pour l’heure, ce titre revient au MacBook Air. « Pour le moment » car Apple devrait présenter des nouveautés logicielles importantes lors de la WWDC 2024 avec, notamment, l’intégration d’une nouvelle intelligence artificielle. iPadOS subira peut-être une grande transformation. Peut-être…
Accessoires : il faut tout racheter (et c’est cher)
Pour profiter pleinement de l’iPad Air M2, il convient de s’équiper des accessoires qui l’accompagnent. Bonne nouvelle, le nouveau Pencil Pro est pris en charge. Mauvaise nouvelle, les anciens stylets ne sont pas compatibles. Si vous êtes déjà équipé, il faudra donc passer à la caisse : 149 euros supplémentaires.
À l’inverse, le nouveau Magic Keyboard, tout d’aluminium vêtu, est réservé à l’iPad Pro. Si vous étiez équipé de la précédente génération, vous ferez une économie de 399 euros (349 euros pour le modèle 11’’). En revanche, si vous débarquez dans l’univers iPad, vous débourserez la même somme pour l’ancien Magic Keyboard que pour le nouveau. Apple a en effet jugé bon de ne pas baisser le tarif de la première génération malgré l’arrivée d’un nouveau modèle plus premium. Au total la facture incluant l’iPad Air M2, le Pencil Pro et le Magic Keyboard s’élève à 1 517 euros. Oui, ça commence à chiffrer.
Si vous n’êtes pas fermé à des solutions alternatives, des accessoiristes proposent des étuis-claviers tout aussi complets mais plus abordables. C’est le cas par exemple du Combo Touch de Logitech vendu un peu partout y compris… chez Apple.
iPad Air 6 13″ 128 Go Wi-Fi au meilleur prixPrix de base : 969 €
Voir plus d’offres
Mon avis sur l’iPad Air M2 13’’
Malgré un certain conservatisme d’Apple, l’iPad Air M2 reste un excellent cru. L’arrivée d’un modèle 13’’ combiné à une puce M2 font de cet iPad Air le plus Pro de l’Histoire. Capable de tout faire, il est à la fois un merveilleux outil pour les amateurs de multimédia et de jeu que pour les utilisateurs en recherche d’une machine de productivité.
Sur ce volet, la puissance et son endurance le rendent redoutable… pour une tablette. À l’instar de l’iPad Pro, l’iPad Air M2 ne peut pas encore remplacer complètement un MacBook Air, la faute aux limites d’iPadOS et au prix des accessoires permettant d’exploiter son plein potentiel.
L’iPad Air M2 est donc recommandé si vous n’avez jamais mis les pieds dans l’univers iPad et que vous cherchez une machine de travail et de divertissement polyvalente et adaptée à vos besoins de mobilité. En revanche, inutile de vous ruiner si vous possédez déjà un iPad (Air ou Pro) équipé d’une puce M1.
Je joue avec l'intelligence artificielle <a href="https://fr.wikipedia.org/wiki/Lisp">depuis que Lisp est à la pointe de la technologie</a>. C'est-à-dire depuis longtemps… Dernièrement, comme tout le monde, je me suis intéressé de plus près à la nouvelle vague de l'IA. Je ne suis pas très impressionné. Mais pas parce qu'<a href="https://www.bfmtv.com/tech/intelligence-artificielle/pourquoi-open-ai-n-a-finalement-pas-copie-la-voix-de-scarlett-johansson-pour-chat-gpt_AV-202405240627.html">OpenAI n'a pas respecté les droits de Scarlet Johannson</a>. Ni parce que <a href="https://www.huffingtonpost.fr/insolite/video/pourquoi-l-intelligence-artificielle-de-google-vous-conseille-de-mettre-de-la-colle-sur-votre-pizza_234350.html">l'IA de Google recommande d'utiliser de la colle pour faire adhérer le fromage à la pizza</a>. C'est surtout que tout simplement lorsque je dis au chatbot de résumer une transcription de Otter.ai d'une réunion, il se trompe. C'est pourquoi je traite les résultats de mes requêtes d'IA avec beaucoup, beaucoup de prudence. Mais j'ai enfin trouvé un chatbot d'IA dont je peux facilement revérifier le travail pour m'assurer qu'il reste dans les clous. C'est <a href="https://www.perplexity.ai/">Perplexity</a>. Cela n'a l'air de rien, mais c'est une caractéristique essentielle. Perplexity a également des hallucinations. Mais il valorise les données provenant de sources dignes de confiance. Voici donc ce qu'il peut faire et pourquoi il est devenu mon chatbot IA préféré. <h2>1. Fiable pour la recherche</h2> La qualité et les spécifications de Perplexity en font un véritable outil de recherche. Un exemple. J'ai fait un travail de doctorat sur le Dr Norman Leys, un anti-impérialiste du 20e siècle. Perplexity m'a donné un bon résumé de sa carrière et, surtout, m'a orienté vers les études universitaires qui traitent de sa vie. D'autres chatbots d'IA m'ont donné des informations beaucoup plus larges et parfois inexactes. Et sans me montrer leurs sources. C'est au contraire ce que fait Perplexity dans tous les domaines qu'il couvre. Qu'il s'agisse de recherches universitaires, d'investissements ou de sports, Perplexity peut traiter des requêtes complexes et fournir des réponses précises, détaillées et adaptées au contexte. Avec les sources. <h2>2. Qualité des sources et des citations</h2> Un autre élément qui fait de Perplexity un excellent outil de recherche est la qualité de ses sources. Il recueille notamment ses données à partir d'études universitaires et d'autres sources fiables. La fonction Focus de Perplexity vous permet également d'affiner vos recherches et d'éviter certaines sources. Par exemple lors de ma recherche sur Norman Leys, j'ai demandé à Perplexity de n'utiliser que des sources académiques, d'éviter Wikipédia et d'autres sites moins fiables. De même, si vous avez besoin d'informations utiles sur la manière de réparer votre machine à laver, vous pouvez lui demander de se concentrer uniquement sur les vidéos YouTube. Oui, ChatGPT et Copilot proposent désormais des citations. Mais Perplexity va plus loin. Par exemple, s'il est possible qu'une partie de la réponse provienne de Reddit, il vous indiquera où trouver l'article spécifique qu'il cite. Vous pouvez alors vérifier par vous-même si l'information est digne de confiance! Le programme m'indique également, et c'est unique, lorsqu'il ne trouve pas de réponse. Les autres inventent trop souvent des réponses. Bref, bien qu'il soit aussi sujet à des hallucinations comme tous les LLM, Perplexity semble essayer de s'en tenir aux faits. <h2>3. Profondeur et organisation</h2> Là où Perplexity se distingue des autres encore une fois, c'est qu'il fourni des questions supplémentaires pour poursuivre la recherche. Bref, quel que soit le sujet qui vous intéresse, Perplexity vous aidera à l'approfondir. Et lorsque vous examinez une question, la fonction Collections vous aide à organiser vos découvertes et vos réflexions de manière structurée. Vous pouvez garder vos notes de recherche pour vous ou les partager avec un maximum de cinq collègues ou amis. Enfin, l'application, disponible pour Android et iOS, facilite l'usage de Perplexity AI sur votre smartphone. <h2>4. Intégration avec plusieurs LLM</h2> Contrairement à d'autres chatbots d'IA populaires, Perplexity AI exploite plusieurs LLM. Il peut donc obtenir des réponses de Claude, GPT-4o et Mistral, en plus de ses propres modèles. Cette approche multimodèle vous permet de choisir le meilleur modèle pour vos besoins spécifiques. Mais aussi d'améliorer la flexibilité et la précision des réponses. La version Pro vous permet de basculer entre les différents LLM. Pour passer d'un modèle à l'autre, procédez comme suit : <ul> <li>Ouvrez Perplexity AI sur votre navigateur et connectez-vous à votre compte.</li> <li>Cliquez sur l'icône en forme de roue dentée dans le coin inférieur gauche de l'interface pour ouvrir le menu des paramètres.</li> <li>Dans ce menu, recherchez la section du modèle IA sous la sous-section Perplexity Pro.</li> <li>Sélectionnez l'un des modèles disponibles, notamment GPT-4 Turbo, Claude 3, Mistral et le modèle expérimental de Perplexity.</li> <li>Après avoir sélectionné le modèle de votre choix, veillez à enregistrer les modifications</li> </ul> <h2>5. Infos et recherche optimisées</h2> Perplexity tire des informations du Web en temps réel, <a href="https://www.zdnet.fr/actualites/openai-voici-tout-ce-qui-devient-gratuit-392368.htm">une fonctionnalité qui vient tout juste d'arriver dans la version gratuite de ChatGPT</a>. Alors que de nombreux chatbots s'appuient sur des ensembles de données statiques, Perplexity met continuellement à jour sa base de connaissances en indexant le Web quotidiennement. Ce qui signifie que j'obtiens des informations pertinentes pour mes questions. Perplexity est particulièrement doué pour extraire des informations pertinentes d'articles récents. Ainsi, bien que vous ne puissiez pas obtenir des informations de dernière minute par l'intermédiaire du chatbot, vous pouvez avoir quand même des informations actualisées. L'outil utilise également la recherche contextuelle pour combler le fossé entre les moteurs de recherche traditionnels et les LLM. Il vous permet d'effectuer des recherches structurées qui vous aideront à trouver exactement ce que vous cherchez, plutôt que d'espérer que les bons mots-clés vous donneront la réponse souhaitée sur la première page de résultats. <h2>Une utilisation en croissance</h2> Je préfère de loin cette expérience utilisateur à celle de Google, qui balance plein de publicités et d'absurdités générées par l'IA. Et je ne suis peut-être pas le seul à préférer Perplexity. Une étude récente de la société d'analyse SEO BrightEdge a révélé que "les renvois de Perplexity vers des sites de marque augmentent de près de 40 % d'un mois sur l'autre depuis janvier". En d'autres termes, les gens utilisent Perplexity pour la recherche. Si vous n'avez pas besoin de Perplexity pour effectuer des recherches sur le Web ou dans les actualités, et que vous avez simplement besoin d'une réponse à une question de programmation, vous pouvez cliquer sur le bouton Focus et le faire passer en "mode écriture". Vous n'obtiendrez alors que des résultats provenant des LLM de Perplexity. Les résultats ressembleront davantage à ceux que ChatGPT et d'autres chatbots d'IA. <h2>Les limites de Perplexity</h2> Dans l'ensemble, Perplexity AI est mon choix parmi les autres chatbots parce qu'il est excellent dans la recherche détaillée, mais il peut aussi faire des traductions, rédiger des résumés de documents et répondre à des questions simples et complexes. De plus, vous pouvez l'utiliser pour créer des poèmes, du code, des messages électroniques et des articles. Mais il ne fait pas tout. Contrairement à d'autres chatbots, tels que Microsoft Copilot ou ChatGPT avec DALL-E 3, Perplexity n'inclut pas de fonctionnalité gratuite de création d'images d'IA. Vous pouvez vous abonner à Perplexity Pro (40 $ par mois ou 400 $ par an) pour bénéficier d'outils de création d'images d'IA de base, mais ils n'égalent pas les meilleurs générateurs d'images d'IA. <i>Source : <a href="https://www.zdnet.com/article/5-reasons-why-i-prefer-perplexity-over-every-other-ai-chatbot/" target="_blank" rel="noopener">"ZDNet.com"</a></i>
Des réunions à rallonge, des coups de fil interminables, des rendez-vous au sommet et des boîtes e-mail remplies de messages importants. C’est ainsi que l’on imagine le quotidien de dirigeants des grandes entreprises technologiques. Pourtant, Bill Gates estime qu’il a fait une erreur en chargeant un peu trop la barque sur son agenda.
Bill Gates a tout compris
C’est en tout cas ce que l’on peut retenir du message plein de bon sens que le milliardaire a publié sur le réseau social Threads. Partageant un article qui explique que le fait d’être moins occupé peut rendre une personne plus heureuse, le co-fondateur de Microsoft a ainsi commenté :
Il m’a fallu beaucoup trop de temps pour comprendre qu’il n’est pas nécessaire de remplir chaque seconde de son emploi du temps pour réussir.
Il ajoute : “Avec le recul, c’est une leçon que j’aurais pu apprendre beaucoup plus tôt si j’avais jeté un coup d’œil au calendrier volontairement léger de Warren Buffett”.
Et comme le rappellent à juste titre ne confrères de Fortune, ce n’est pas la première fois qu’il aborde cette thématique. L’année dernière, dans son podcast Unconfuse Me with Bill Gates, il avait déjà expliqué :
Dans ma trentaine et ma quarantaine, lorsque l’on parlait de sommeil, on disait : “Oh, je ne dors que six heures””, a expliqué M. Gates au couple. Et l’autre disait “Oh, je ne dors que cinq heures”, puis “Eh bien, parfois je ne dors pas du tout”. Je me disais : “Ces gars-là sont si bons, je dois faire plus d’efforts parce que le sommeil, c’est de la paresse et de l’inutile”.
Il affirme aujourd’hui que c’était une erreur, car avoir un bon sommeil est “super important” pour la santé du cerveau. Ce problème lui tient d’autant plus à cœur qu’il a perdu son père, terrassé par la maladie d’Alzheimer en 2020.
La leçon de Warren Buffett
Le clin d’œil appuyé de Bill Gates à Warren Buffett ne doit en tout cas rien au hasard. L’homme d’affaires aujourd’hui âgé de 93 ans est en effet connu pour passer ses journées de travail à réfléchir et à lire. Il ne répond qu’à très peu d’appels téléphoniques et n’organise qu’assez peu de réunions. En montrant son bureau, le milliardaire a l’habitude de dire : “Il ne se passe pas grand-chose ici”.
Alors que sa société Berkshire Hathaway possède des parts importantes dans des géants tels que Coca-Cola et American Express, il estime que les dirigeants de ces entreprises doivent être laissés libres de gérer leurs affaires sans ingérence de sa part. Pour aller plus loin, on vous conseille la lecture de cet article où nous revenions sur les 5 précieux conseils que Warren Buffett adresse aux investisseurs.
Vous êtes en train d’apprendre une nouvelle langue dans le cadre de votre activité professionnelle, par exemple ? Et si on vous disait qu’ajouter ce genre de nouvelle corde à votre arc ne sera très prochainement plus nécessaire ? La startup Rask AI vient de faire la démonstration impressionnante de son nouveau système de traduction / doublage à la volée dopé à l’IA.
L’idée est que pendant une visioconférence – par exemple sur Zoom, Meet ou n’importe quelle application de la catégorie – vous pouvez activer une IA vous permettant de converser instantanément dans une langue que vous ne connaissez pas. Le tout avec votre vraie voix, et un accent parfait par dessus le marché. Impossible ?
Cette IA vous transforme en polyglotte en quelques clics, le tout en direct
Les dernières avancées en matière d’intelligence artificielle sont évidemment au coeur de cette technologie impressionnante dont vous pouvez voir la démonstration dans le post 𝕏 repris ci-dessous :
Dans la démonstration, on peut donc voir Anton Selikhov, le chef produit de Rask AI, faire une introduction en anglais, avant de se connecter à une intervenante espagnole qui s’excuse de ne pas parler anglais. Tout est d’emblée retranscrit en anglais, dans la langue de Anton Selikhov, ce qui lui permet de comprendre qu’il serait préférable qu’il sélectionne la retranscription vocale en espagnol.
Deux clics plus tard, alors même que le chef produit continue de son côté à parler en Anglais, sa voix est doublée de manière étonnamment naturelle en espagnol. Un peu comme on ferait doubler un film étranger par un service de doublage professionnel. À ceci près qu’il s’agit bien de sa voix, et que le doublage colle par ailleurs parfaitement au mouvement de ses lèvres (lui aussi modifié à la volée).
En tout, 130 langues seraient prises en charge. En plus de doubler votre voix à la perfection, le service est capable de comprendre tout ce que disent les interlocuteurs quelle que soit leur langue et de retranscrire ce qu’ils disent en un sous-titre dans la langue de chaque intervenant.
Selon Anton Selikhov, le service sera disponible très prochainement – sans s’avancer sur un calendrier précis. On ne sait pas quel sera son coût pour les utilisateurs. Ce genre de fonctionnalité IA était jusqu’à il y a encore quelques mois quelque chose de l’ordre de la science fiction. Aujourd’hui, plusieurs startups sont sur le filon.
J'utilise depuis une dizaine d'années maintenant <a href="https://www.zdnet.fr/guide-achat/test-shokz-openfit-des-ecouteurs-de-qualite-pour-rester-vigilant-39960458.htm">les casques à conduction osseuse de Shokz</a>. Je les ai adoptés après avoir utilisé d'innombrables paires d'écouteurs traditionnels qui ne supportaient tout simplement pas la sueur. Ni les mouvements constants qui abîmaient les connexions des fils. À un moment donné, j'ai utilisé cinq paires d'écouteurs <a href="https://www.zdnet.fr/actualites/logitech-achete-le-fabricant-d-ecouteurs-jaybird-pour-50-millions-de-dollars-39835492.htm">de la marque Jaybird</a> parce qu'ils ne résistaient pas aux quantités considérables de sueur que je produis en courant. De plus, les écouteurs restent rarement dans mes oreilles lorsque je cours. <h2>Les caractéristiques techniques du casque à conduction osseuse Mojawa Run Plus</h2> Les spécifications du Mojawa Run Plus sont les suivantes : <ul> <li>Type de batterie : 150 mAh Li-Polymer avec un temps de charge de 50 minutes et 8 heures d'autonomie</li> <li>Système d'ancrage à double suspension pour des basses plus profondes et plus résonnantes</li> <li>Assistant vocal : Oui</li> <li>Réponse en fréquence : 20Hz-20KHz</li> <li>Sensibilité : 110dB+/- 5dB</li> <li>Version Bluetooth : 5.2</li> <li>Stockage MP3 : 32 Go</li> <li>Égaliseur : Oui</li> <li>Résistance à l'eau : IP68</li> <li>Poids : 29,7 g</li> <li>Prix : 170 €</li> </ul> La dernière chose dont j'ai besoin, c'est de perdre une paire d'écouteurs hors de prix lorsque la physique prend le meilleur sur la technologie. Et que la gravité fait exploser l'écouteur sur le trottoir. Lorsque j'ai découvert les écouteurs à conduction osseuse, tous ces problèmes ont été résolus. Récemment, j'ai été contacté par une société dont je n'avais jamais entendu parler (Mojawa) et qui me proposait un casque à conduction osseuse ressemblant à mon préféré, le <a href="https://www.zdnet.fr/guide-achat/voici-un-casque-audio-resistant-a-la-sueur-39956334.htm">Shokz Open Run Pro</a>. Mojawa voulait que j'essaie son produit. Voici donc le test du Mojawa Run Plus. <h2>Premier essai, en courant, du casque à conduction osseuse Mojawa Run Plus</h2> Je ne vais pas mentir. Le premier essai en courant n'a pas vraiment été spectaculaire. Par contre, la première impression du matériel lui-même était très bonne. Il y a une chose que je reproche (depuis longtemps) aux casques Shokz. Le bouton pour mettre en pause et passer d'une chanson à l'autre est minuscule. Pire encore, il peut être difficile d'exécuter le bon double-clic pour passer à la chanson suivante. Un double-clic trop rapide est considéré comme un simple clic. Le casque Mojawa Run Plus résout complètement ce problème. Avec un bouton beaucoup plus gros sur le côté gauche, il n'y a aucun problème pour mettre en pause (un clic), sauter (deux clics) ou réécouter le morceau précédent (trois clics). <h2>Un "curseur" tactile sur le côté droit</h2> Le Mojawa va encore plus loin en ajoutant un "curseur" tactile sur le côté droit. Un glissement vers le haut permet d'augmenter le volume et un glissement vers le bas de le diminuer. Bref, contrairement au Shokz, qui utilise deux petits boutons physiques sur le dessous du côté droit de l'appareil pour modifier le volume, le Mojawa permet d'augmenter/diminuer le son très facilement. La raison pour laquelle la première sortie n'a pas été spectaculaire est que j'ai eu des difficultés avec le son. <h2>Je placerais ce casque au même niveau que le Shokz Open Run Pro</h2> Le son était beaucoup trop faible. Et peu importe le nombre de fois où j'ai fait glissé mon doigt sur le pavé tactile, le volume n'augmentait pas. C'est un problème pour les casques à conduction osseuse, car vos oreilles sont grandes ouvertes et le son ambiant peut facilement noyer la musique que vous voulez écouter. Heureusement, les courses suivantes n'ont pas souffert de ce problème. Je ne sais pas si c'était un problème lié à Spotify ou à Android. Mais la fois suivante le son était plus fort. En fait, je placerais ce casque facilement au même niveau que le Shokz Open Run Pro (qui est le meilleur casque à conduction osseuse que j'ai essayé). Évidemment, certaines fonctions (comme l'égaliseur) nécessitent l'utilisation d'une application. En général, je n'installe pas ce type d'applications (parce que je préfère la sécurité et la confidentialité aux fonctions supplémentaires), et je n'ai donc pas utilisé l'égaliseur, ni d'ailleurs utilisé le stockage MP3. C'est très bien, car je n'ai pas besoin de ces options. Pourquoi ? La qualité sonore d'un casque à conductions osseuse est limitée et je cours toujours avec mon smartphone. <h2>A qui s'adresse le casque à conduction osseuse Mojawa Run Plus</h2> Tout le monde ne peut pas s'habituer aux casques à conduction osseuse. Des amis et des membres de ma famille en ont essayés sur ma recommandation. Et une poignée d'entre eux m'ont dit qu'ils n'aimaient pas la sensation que cela produit sur la tête. Tous les autres ont adoré. Si vous faites régulièrement de l'exercice et que vous transpirez beaucoup (et que vous ne vous souciez pas d'atteindre le meilleur son possible), ces écouteurs sont faits pour vous. De même, si vous trouvez que le contrôle de votre casque actuel est difficile, le casque de Mojawa vous rendra très heureux. Ce casque supplante mon Shokz Open Run Pro pour le moment. Nous verrons si la longévité est du côté du Run Plus (les casques Shokz ayant tendance à tenir la distance). Si c'est le cas, je recommande vivement ce casque aux personnes actives à la recherche d'un modèle capable de résister à la sueur, à l'eau et aux agressions typiques que l'exercice physique inflige à ce type de technologie. <i>Source : <a href="https://www.zdnet.com/home-and-office/home-entertainment/i-replaced-my-shokz-with-these-bone-conduction-headphones-for-one-key-reason/" target="_blank" rel="noopener">"ZDNet.com"</a></i>
Inventé dans les années 1930, on aurait pu croire que le talkie-walkie était une techno dépassée. Même si encore largement utilisé dans certains milieux professionnels, on aurait bien du mal à imaginer l’intérêt d’une application mimant un talkie-walkie sur nos smartphones. Et pourtant. C’est le but de l’application Ten Ten, lancée le 4 avril. En peu de temps, elle est devenue très populaire, notamment chez les plus jeunes. Disponible sur iOS et Android, elle a déjà dépassé le million de téléchargements. Vous allez vite comprendre pourquoi c’est problématique.
Un succès fulgurant mais controversé
L’application est issue de l’imagination d’Antoine Baché, développeur et ancien élève de l’école d’ingénieurs 42 et de Jules Comar, diplômé de Sciences Po Paris et ancien consultant chez McKinsey. Le duo est désormais à la tête d’une vingtaine de personnes qui ont travaillé au développement de Ten Ten. Vous allez le voir, sortir de 42 et de Sciences Po pour nous pondre une telle merveille, c’est assez cocasse.
Le principe de Ten Ten, se veut d’une simplicité désarmante : après téléchargement, il suffit de créer un profil avec pseudonyme et photographie. Il est possible ensuite d’ajouter les contacts de son répertoire et de communiquer instantanément avec eux, même lorsque l’application est fermée et l’écran verrouillé. Vous avez dit intrusif ? C’est même l’élément maître de communication de l’application : « chante, crie ou chuchote… tes amis t’entendront en temps réel, même quand le tel est verrouillé! ». Un langage, on le voit, parfaitement orienté pour séduire les plus jeunes.
Sur l’application TikTok, des centaines de vidéos de collégiens ou lycéens faisant usage de Ten Ten sont déjà en ligne. Ceux-ci s’amusent parfois à montrer comment ils utilisent Ten Ten pour perturber les cours. Un vrai bonheur pour les professeurs. La seule manière d’éviter que les communications par Ten Ten sortent du haut-parleur, c’est de mettre le téléphone en mode avion, ou ne pas déranger. Autre solution plus radicale : l’éteindre complètement.
Si on se demande à quoi pensaient réellement les concepteurs de l’application au moment de sa création, l’usage détourné que les élèves peuvent en faire est déjà un souci en soi. Même si certaines vidéos sur TikTok sont des mises en scène, il y a à boire et à manger. Des collégiens qui en harcèlent d’autres à l’aide de Ten Ten, d’autres (la plupart mineurs) qui demandent carrément à leur communauté de les ajouter sur Ten Ten sans même connaître les personnes concernées et autres vidéos plus ou moins intelligentes.
On imagine déjà largement les dérives qui pourraient advenir avec Ten Ten, surtout que les créateurs avouent n’avoir pas encore finalisé la politique de confidentialité de Ten Ten. Les risques liés à une utilisation non contrôlée de cette application sont évidents : diffusion involontaire d’informations relevant de la vie privée, facilité de diffusion de messages haineux, manque de contrôle sur les enregistrements, addiction et pression sociale, etc. Ten Ten a au moins ce mérite : celui de nous faire reconsidérer sérieusement l’interdiction des smartphones en classe.
Ten Ten, une application française mimant un talkie-walkie, a dépassé le million de téléchargements depuis sa sortie en avril.
Le principe : pouvoir parler à ses contacts alors même que l’application est éteinte et le téléphone verrouillé.
Les dérives et risques de cette application, notamment auprès des plus jeunes, apparaissent comme assez évidents.