L'IA aujourd'hui !

By: Michel Levy Provençal
  • Summary

  • L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


    Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

    Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


    Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

    Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


    En savoir plus sur Michel Levy Provençal

    Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Michel Levy Provençal
    Show more Show less
Episodes
  • L'IA aujourd'hui épisode du 2025-04-11
    Apr 11 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : sécurité des protocoles, défis de l'IA générative, et innovations technologiques. C’est parti !Commençons par le Model Context Protocol, ou MCP, qui fait face à des défis de sécurité. Ce protocole, conçu pour permettre aux systèmes alimentés par des modèles de langage d'accéder à divers outils, est vulnérable aux attaques par injection de commandes. Des problèmes comme le "Rug Pull" et le "Tool Shadowing" permettent à des outils malveillants de détourner des clés API ou de redéfinir des appels à des serveurs de confiance. Les utilisateurs doivent être vigilants et les interfaces doivent alerter sur les changements dans les descriptions d'outils pour éviter ces pièges.Passons maintenant aux modèles d'IA générative. Bien qu'ils soient souvent utilisés pour des tâches simples, comme générer du code, ils peuvent manquer de profondeur et de compréhension. Par exemple, un modèle peut produire un code fonctionnel mais non optimal, en omettant des solutions plus élégantes comme l'utilisation de fonctions intégrées. Cela soulève des questions sur la qualité du code et l'impact à long terme sur les développeurs qui s'appuient sur ces outils.En parlant de grandes entreprises, Amazon a récemment cessé de prendre en charge le traitement local des voix sur ses appareils Echo, envoyant désormais tous les enregistrements audio à ses serveurs. Bien qu'Amazon assure ne pas conserver ces enregistrements, des précédents montrent que la confiance est fragile. Cela soulève des préoccupations sur la vie privée et le respect des lois comme le RGPD.Du côté de Google, une étude révèle une dégradation de la qualité des résultats de recherche, un phénomène attribué à l'augmentation de contenus générés par IA. Ces contenus de faible qualité exploitent les algorithmes de Google, rendant les recherches moins pertinentes. Certains suggèrent que Google pourrait volontairement réduire la qualité pour augmenter les revenus publicitaires.Enfin, arXiv, une plateforme de partage d'articles scientifiques, recrute des développeurs pour améliorer son site. arXiv joue un rôle clé dans la diffusion rapide des connaissances scientifiques, et l'intégration de nouvelles fonctionnalités pourrait renforcer cette mission.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-04-10
    Apr 10 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Google et l'IA générative, la compression des modèles d'IA, et les avancées en géospatial. C’est parti !Commençons par Google, qui a récemment rappelé aux éditeurs de sites web que la création massive de contenu via l'intelligence artificielle est considérée comme du spam, sauf si elle est originale et apporte une réelle valeur ajoutée. Pourtant, l'algorithme Discover de Google met en avant des sites générés par IA, dont certains diffusent des rumeurs et des fausses informations. Parmi les 3 500 sites identifiés, une quarantaine ont été promus par Discover, générant des revenus publicitaires conséquents. Ces pratiques vont à l'encontre des règles de Google, qui a commencé à pénaliser certains sites après un reportage de France 2. Environ 50 % des documents indexés par Google sont considérés comme du spam, ce qui soulève des critiques sur le respect de ses propres règles.Passons maintenant à Multiverse Computing, qui a annoncé la sortie de deux nouveaux modèles compressés par leur technologie CompactifAI : Llama 3.1-8B et Llama 3.3-70B. Ces modèles ont été compressés à 80 %, réduisant les paramètres de 60 % par rapport aux originaux. Cette compression permet une efficacité énergétique accrue de 84 %, une inférence 40 % plus rapide, et une réduction des coûts de 50 %, tout en maintenant une précision quasi intacte. CompactifAI utilise des réseaux de tenseurs inspirés par la physique quantique, permettant de réduire la taille des modèles jusqu'à 93 % avec une perte de précision minimale. Ces modèles sont déjà utilisés par de grandes banques et entreprises, et sont disponibles via API sur la plateforme CompactifAI.Enchaînons avec les modèles de langage de grande taille (LLM) et leur application dans les systèmes RAG, ou génération augmentée par récupération. Ces systèmes connectent les modèles à des sources d'information externes, augmentant leur fiabilité. Une comparaison entre LLaMA 4 Scout de Meta et GPT-4o d'OpenAI a montré des comportements distincts. LLaMA 4 génère des réponses même avec un contexte insuffisant, tandis que GPT-4o préfère ne pas répondre sans contexte pertinent. Cette différence souligne l'importance de l'ancrage factuel dans les systèmes RAG.Enfin, Google Research a introduit de nouveaux modèles de base géospatiaux dans le cadre du projet Geospatial Reasoning. Ces modèles utilisent l'IA générative pour résoudre des problèmes géospatiaux, utiles dans des domaines comme la santé publique et la résilience climatique. Les modèles, tels que le Population Dynamics Foundation Model, ont été testés par plus de deux cents organisations et seront étendus à d'autres pays. Google explore également comment l'IA générative peut réduire le coût et le temps nécessaires pour combiner les capacités géospatiales, avec des modèles comme Gemini capables de gérer des données complexes.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    4 mins
  • L'IA aujourd'hui épisode du 2025-04-09
    Apr 9 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les avancées de Llama 4, l'intégrité scientifique face à l'IA, les défis de la documentation générée par l'IA, et l'impact de l'IA sur l'évaluation par les pairs. C’est parti !Commençons par le modèle Llama 4 de Meta, qui marque une nouvelle étape dans le développement des modèles d'intelligence artificielle. Avec ses capacités multimodales, Llama 4 peut traiter des entrées textuelles et visuelles, bien qu'il ne génère que des sorties textuelles. Le modèle Behemoth, en cours de formation, impressionne par ses 2 trillions de paramètres, dont 288 milliards sont actifs. L'architecture Mixture-of-Experts (MoE) améliore l'efficacité, mais nécessite des ressources matérielles considérables, dépassant les capacités des GPU traditionnels. Les modèles comme Scout et Maverick se distinguent par leur capacité à traiter conjointement texte et image, bien que Maverick ait montré des performances variables sur certains benchmarks de codage.Passons maintenant à l'intégrité scientifique. L'Office français de l'intégrité scientifique (Ofis) organise un colloque le 15 avril 2025 pour discuter des enjeux liés à l'IA générative dans la recherche. L'IA générative, capable de créer du contenu original, soulève des questions sur l'élaboration de projets et la publication des résultats. L'Ofis a également publié la version française du Code de conduite européen pour l'intégrité en recherche, fournissant des lignes directrices pour des pratiques éthiques rigoureuses. Des webinaires et ateliers sont proposés pour renforcer les compétences des référents à l'intégrité scientifique.En parlant de documentation, les documents générés par l'IA posent des problèmes de qualité et de responsabilité. Souvent comparés à des fichiers README mal rédigés, ils manquent de vision stratégique et de contexte. Les LLMs peuvent inventer des informations, rendant difficile la détection d'erreurs. Bien que l'IA puisse assister les rédacteurs techniques, elle ne peut pas les remplacer, car la documentation nécessite une compréhension approfondie et une responsabilité que seules les personnes peuvent offrir.Enfin, l'évaluation par les pairs évolue avec l'IA. Des systèmes comme Paper-Wizard permettent une pré-évaluation rapide des manuscrits, en moins de dix minutes. Bien que cela offre rapidité et efficacité, des services traditionnels comme ceux d'American Journal Experts garantissent une expertise humaine approfondie. Le concept de "reviewed preprints" gagne en popularité, assurant une diffusion rapide des résultats tout en maintenant une qualité scientifique. L'IA dans le peer review doit être utilisée avec prudence pour préserver l'intégrité des publications.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins

What listeners say about L'IA aujourd'hui !

Average customer ratings

Reviews - Please select the tabs below to change the source of reviews.