Note
Le sommet de l’IA qui se réunit à Paris met en évidence la rapidité de l’adoption des outils d’intelligence artificielle et notamment de l’IA générative. Plutôt que de céder à un alarmisme spéculatif, ce rapport examine des usages positifs de l’IA générative dans le monde du travail pour lutter contre l’exclusion, favoriser les parcours, faciliter les transitions et enrichir le contenu du travail.
Par Marie Degrand-Guillaud, directrice Générale de Nickel et Administratrice de l’ADIE
Publié le 3 février 2025
...
2.4 Placer l’IA Gen au cœur du dialogue social
Recommandation #5
IA Gen et dialogue social
Des travaux récents de l’OCDE ont montré que le déploiement de l’IA est d’autant plus
profitable aux organisations et aux actifs qu’il passe par le dialogue social et le dialogue
professionnel32. Ces médiations permettent en effet de mieux identifier les difficultés et de
les surmonter.
...
Avec Claude 3, Anthropic surpasse GPT-4... du moins sur le papier
...
Avec l'explosion des usages de l'IA générative, nous vous proposons une nouvelle newsletter, hebdomadaire et gratuite, qui résume et décrypte l'actualité du secteur. Notre promesse : une information indépendante et centrée sur des cas d'usage concrets qui transforment les business. Pas de "hype" marketing, pas de sensationalisme ! L'essentiel, chaque semaine dans votre boîte mail, pour vous donner des clés de compréhension et vous faire gagner du temps.
— Julien Bergounhoux, rédacteur en chef de L'Usine Digitale
...
- La start-up française Adaptive ML lève 20 millions de dollars pour sa solution de modèles de langage adaptés aux usages de chaque entreprise. Elle compte ouvrir un centre de R&D à Paris, mais aussi développer de nouvelles capacités, par exemple pour permettre aux modèles de s’autocritiquer.
... - Mistral AI n'en finit plus de multiplier les partenariats avec des entreprises technologiques de renom. Cette fois-ci c'est Snowflake qui passe à la caisse. Le spécialiste du data cloud va mettre des billes dans la start-up française (qui l'est de moins en moins pour le coup), et proposera aussi bien ses modèles ouverts que le nouveau modèle Large (fermé) à ses utilisateurs.
- Des chercheurs de CentraleSupélec lancent un modèle open source et bilingue baptisé CroissantLLM. Il se veut une alternative aux modèles poussés par les géants américains. Sa particularité : être entraîné sur autant de contenus en anglais qu'en français. Les chercheurs ont notamment bénéficié de la puissance de calcul du supercalculateur Jean Zay.
- Accenture s'empare d'Udacity et investit 1 milliard de dollars pour former les entreprises à l'IA. Le géant du conseil vient de lancer une plateforme de formation à l'IA et acquiert dans la foulée Udacity – connu pour sa plateforme d'apprentissage en ligne – pour assurer le bon fonctionnement de sa suite de services nouvellement créée. Un investissement d'un milliard de dollars sur trois ans est annoncé, avec comme ambition d'aider les entreprises à prendre le virage de l'IA générative.
- Un ingénieur a volé des secrets industriels de Google pour les revendre en Chine
- Des modèles d’intelligence artificielle malveillants repérés sur la plateforme Hugging Face
L'hallucination de la semaine
... produisent parfois des textes dont la forme est correcte, mais dont les informations sont complètement fausses. Ce phénomène a été dénommé "hallucinations" ...
Intelligence artificielle : "2023 restera l'année dans laquelle tout le monde s'est emparé du sujet"
ChatGPT ©Radio France
Intelligence artificielle : "2023 restera l'année dans laquelle tout le monde s'est emparé du sujet" - Mardi 26 décembre 2023 / L'invité de 8h20
2023 restera l'année où l'intelligence artificielle générative est entrée avec fracas dans nos vies. Elle existait avant, mais elle est soudainement devenue très concrète. Ce n'est surement qu'un avant goût de ce qui nous attend en 2024.
Isabelle Ryl, professeure des universités, experte en intelligence artificielle. Elle dirige le "Paris Artificial Intelligence Research Institute" :
"Je pense que 2023 restera l'année dans laquelle tout le monde s'est emparé du sujet, c'est-à-dire tout citoyen a vraiment pris conscience d'une technologie qui arrivait à la portée de chacun et de ce qu'elle allait pouvoir changer dans leur vie."
Quelles sont les limites techniques au développement de l’intelligence artificielle ? "Il y a déjà la limite de la donnée. Il y a une limite concernant la disponibilité des processeurs. Aujourd'hui le monde entier veut s'équiper en serveurs et en méga-clusters. La disponibilité des puces est un problème, c'est aussi un problème de souveraineté, de disposer des moyens. Autre problème : celui de l’énergie et de la consommation."
"Il y a aussi beaucoup de gens qui travaillent sur une IA qui fonctionnerait avec des modèles plus petits, avec moins de données, avec moins de calculs. On peut espérer que cette limite n'en soit pas une puisqu'on va changer de modèle entre deux."
David Chavalarias, directeur de recherche au CNRS au Centre d’analyses et de mathématiques sociales :
Si le créateur de ChatGPT a pour objectif de créer une IA aux capacités cognitives supérieures à celle des humains. "Des chercheurs pensent que cela n’arrivera jamais", précise le directeur de recherche au CNRS. "C'est plus à long terme. Mais pour être sûr que ça n'arrive pas déjà aujourd'hui, effectivement il y a des capacités assez impressionnantes."
"Certaines IA ont passé par exemple l'examen du barreau aux États-Unis, donc on pourrait penser qu'elles sont intelligentes, mais il faut quand même garder à l'esprit que ce sont des machines qui reproduisent des choses qu'elles ont apprises à partir d'immenses bases de connaissances."
"Pour refaire quelque chose qui existe déjà, ça va très bien. Pour recombiner aussi et faire un petit peu de nouveau, ça va très bien aussi. Mais pour faire du radicalement nouveau, comme on le fait nous tous les jours, c'est très difficile. Pour se donner juste une idée, si vous demandez à une IA d'écrire une phrase sans la lettre "e", si demandez à ChatGPT d'écrire une phrase sans "e" à la Georges Perec, il n'y arrivera pas, parce qu'en fait il ne reconnaît pas les lettres. "
L'équipe Alexis Morel Production
Laion (Large-scale Artificial Intelligence Open Network), une organisation à but non lucratif allemande, a mis en ligne un prototype de framework pour entraîner les modèles d'IA générative et réclame la création d'un "CERN" pour la recherche en intelligence artificielle.
1 min. de lecture
...
a mis en ligne un framework pour entraîner les grands modèles de langage utilisés pour générer du texte et des images. Baptisé OpenFlamingo, il repose sur "une reproduction open source de Flamingo" de DeepMind (Google), et a pour objectif de faciliter la recherche sur l'IA générative. Dans le but, in fine, de "dépasser GPT-4".
... a parallèlement lancé une pétition pour demander la mise à disposition d'une infrastructure de recherche publique, open source et internationale, bâtie sur le modèle du CERN, l'organisation européenne pour la recherche nucléaire où travaillait Tim Berners Lee lorsqu'il a inventé le "World wide web". https://laion.ai/blog/petition/
...
france-5 Magazines 1 h 5 min Français tous publics Vidéo sous-titré -
Présenté par : Caroline Roux, Axel de Tarlé
diffusé le 04/04/23 à 17h44 Disponible jusqu'au 04/05/23
Transports, santé, éducation, sécurité, téléphonie, Internet… Alors que l’intelligence artificielle s’impose de plus en plus dans nos vies, des centaines d’experts mondiaux et patrons de la tech appellent à une pause dans son développement, évoquant "des risques majeurs pour l’humanité".
Dans une pétition parue sur le site futureoflife.org la semaine dernière, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont notamment de nouvelles autorités réglementaires, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les "perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera".
Cette pétition réunit le cofondateur d’Apple, de nombreux universitaires, des ingénieurs de Microsoft et Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla. Également signataire, Yoshua Bengio, pionnier canadien de l’IA, a exprimé ses inquiétudes, lors d’une conférence de presse à Montréal : "Je ne pense pas que la société est prête à faire face à cette puissance-là, au potentiel de manipulation par exemple des populations qui pourrait mettre en danger les démocraties". "Il faut donc prendre le temps de ralentir cette course commerciale qui est en route", a-t-il ajouté, appelant à discuter de ces enjeux au niveau mondial, "comme nous l’avons fait pour l’énergie et les armes nucléaires".
Mais de quoi parle-t-on ? Le secteur de la tech traverse une révolution profonde, avec l'avènement de nouvelles formes d'intelligence artificielle. Mais en quelques mois, la vague de l'IA dite "générative", emmenée par ChatGPT (texte) et par Midjourney (image) a fait vaciller bien des certitudes, tant par exemple les images produites par les IA ont atteint un niveau de réalisme sans précédent. Ainsi on a pu voir ces dernières semaines sur les réseaux sociaux des images d’Emmanuel Macron en train de ramasser des déchets, le pape François emmitouflé dans une longue doudoune blanche façon rappeur américain, Barack Obama et Angela Merkel bâtir des châteaux de sable... Dans ce boom de l’IA, les deepfakes, cette technologie permettant de plaquer, le visage d’une personne sur celui d’une autre déjà présente dans une vidéo, sont également de la partie.
Dans ce contexte, le Commissaire européen Thierry Breton qui prépare actuellement la règlementation européenne sur l’intelligence artificielle (Artificial Intelligence Act) a déclaré que celle-ci devrait inclure une réponse aux préoccupations concernant les risques liés à ChatGPT. "Les solutions d'IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent aussi présenter des risques. Les gens devraient être informés qu'ils ont affaire à un chatbot et non à un être humain. La transparence est également importante au regard du risque de partialité et de fausses informations", a-t-il expliqué.
Alors face à la révolution technologique en cours, sommes-nous prêts ? Quels sont les risques ou les opportunités pour nos démocraties et nos économies ? L'Intelligence artificielle (IA) est déjà bien présente dans nos vies sans que nous nous en doutions. Où s’applique-t-elle ? Quels sont les domaines où tout pourrait changer ? Enfin alors que selon l’INSEE l’illectronisme, l’incapacité à utiliser des appareils numériques, touchait 17 % de la population en 2019. Comment lutter contre la fracture numérique ?
Nos experts :
- Philippe Dessertine, directeur de l’Institut de Haute Finance
- Gaspard Koenig, philosophe, auteur de "La fin de l’individu : voyage d’un philosophe au pays de l’intelligence artificielle"
- Laurence Devillers, professeur en intelligence artificielle : Université La Sorbonne, experte en interaction humain / machine, auteur de "Les robots "émotionnels"
- Nicolas Berrod, journaliste au service futurs "Le parisien" "Aujourd’hui en France"
Tr.: ... réseaux de neurones pour l'apprentissage profond ...