...
La seule barrière qui reste pour limiter la bêtise humaine, c’est l’acculturation [1]. Pour permettre aux gens de prendre des décisions pas trop mauvaises au regard de l’intelligence artificielle, le b.a.-ba, c’est que l’on comprenne de quoi ça parle et quels sont les impacts. Une fois que les gens ont compris cela, ils peuvent décider de l’utiliser, de ne pas l’utiliser ou de définir des règles d’utilisation, mais en ayant a minima une culture générale sur ce qu’est l’IA.
...
acculturer aux différents aspects de l’intelligence artificielle et de permettre aux gens de choisir des outils d’IA en accord avec leur système de valeurs. Je ne peux pas vous dire s’il y en a des mieux, mais il y a des outils qui portent des valeurs différentes. On pourrait regarder par exemple quelle est la consommation énergétique du système en question pour des performances sympathiques. On pourrait aussi regarder avec quelles données le système a été entraîné et est-ce que la collecte de ces données s’est faite en adoptant une stratégie légale. Ce n’est par exemple pas le cas de ChatGPT et encore moins pour Grok (l’outil d’IA de X).
...
pas entraînés que par des données, après ils sont affinés au travers d’interactions humains-machines. Il y a des humains, des travailleurs du clic, qui évaluent les requêtes. On peut ainsi regarder s’ils travaillent pour des salaires décents ou pas, s’ils sont payés à la tâche. Ainsi, on peut prendre une décision d’utiliser tel ou tel système parce qu’on se sent plus en phase avec la façon dont il a été construit et la façon dont il a été utilisé.
Aujourd’hui, parmi les modèles d’IA, il y a évidemment les modèles d’OpenAI comme ChatGPT, mais aussi d’autres entreprises américaines comme Anthropic, une boîte française qui s’appelle Mistral, l’Allemande Aleph Alpha... Il y a plein de petites start-ups qui proposent des modèles open source qui sont certes moins performants ou moins pertinents que ChatGPT, mais qui en général suffisent amplement à résoudre les problèmes pour lesquels on les sollicite.
...
se poser la question « est-ce que j’en ai vraiment besoin ? ». Parfois, la réponse est oui, il y a plein de situations dans lesquelles l’IA aide beaucoup. Ce n’est absolument pas mon but de dire qu’il ne faut pas l’utiliser. Mais l’utiliser moins souvent et pas pour faire n’importe quoi. C’est une forme de responsabilité.
...
sont des modèles statistiques, avec un nivellement par le centre de tout ce que l’on doit se dire, connaître, penser, savoir. Ce qu’il va se passer, c’est que si on n’encourage pas le développement d’alternatives, on va se retrouver à tous penser et parler comme ChatGPT.
[1] Processus par lequel une personne ou un groupe assimile une culture étrangère à la sienne. (Le Petit Robert)
Connu / https://bsky.app/profile/bastamedia.bsky.social/post/3lhbcqiwars2q
"
Basta! @bastamedia.bsky.social · 43m
Risques environnementaux, sociétaux et humains... Peut-il y avoir une utilisation responsable et éthique de l'intelligence artificielle ?
Entretien avec Amélie Cordier, fondatrice de Graine d’IA, entreprise de conseil et d’accompagnement à un usage responsable de l’IA. Par @emmabougerol.bsky.social
« Nous sommes incapables de maîtriser les conséquences de l'IA »
L'utilisation de l'intelligence artificielle peut-elle être responsable et éthique ? Face aux risques environnementaux, sociétaux et humains de l'IA, la spécialiste Amélie Cordier avance une piste de ...
"
...
Facebook Click ID, communément appelé « fbclid » est un paramètre Facebook a commencé à ajouter aux liens sortants partagés sur la plate-forme. Lors du partage d’un lien sur Facebook, lorsque l’un de vos publics cibles clique dessus pour visiter votre site Web, Facebook y ajoutera ce paramètre.
...
Google Click Identifier ou GCLID, alors vous savez peut-être déjà qu’il s’agit d’un paramètre utilisé pour l’échange de données entre Google AdSense et Google Analytics. Ainsi, l’une des possibilités inclut que ce paramètre est utilisé pour l’échange de données avec Facebook Analytics.
52min
Framasoft, une asso au sein de laquelle il est délégué général. Framasoft propose entre autres des logiciels libres comme Framapad, Framadate que tu utilises peut-être déjà. Elle interroge aussi sur le pouvoir des GAFAM : Google, Apple, Facebook, Amazon, Microsoft. A travers sa campagne "Dégooglisons Internet" en 2014, l'asso sensibilise le public à la toxicité de ces géants, démontre que le logiciel libre est une solution, et souhaite essaimer c'est-à-dire redistribuer le pouvoir à travers le collectif CHATONS qui propose également des services de logiciel libre.
Pour aller plus loin, voici les références citées dans l’épisode : https://framasoft.org/
Numérique : reprendre le contrôle, de Daniel Kaplan • Adrienne Charmet • Armony Altinier • Isabelle Falque-Pierrotin • Charles Schulz • Fabrice Rochelandet • Pierre-Yves Gosset • Primavera De Filippi • Michel Reymond • Christophe Masutti • Alain Damasio
https://framabook.org/numerique-reprendre-le-controle/
Déclic, de Maxime Guedj et Anne-Sophie Jacques
L’appétit des géants, et Le monde selon Zuckerberg d’Olivier Ertzscheid
Tr.: ...
être souverain, ne pas avoir de maître, autonomie, émancipation ex la sécurité sociale. duckduckgo, nextcloud, pas de mécanisme d'économie de l'attention, autonomie numérique ... firefox, bloqueur de publicité ublok origin, /sobriété num laisser son smartphone hors de la chambre, je télécharge mes musiques une seule fois. Règle des 4R (Refuser, réduire, réutiliser, recycler)
/avenir du num : choix de société, rép politique, si soc de conso solutionnisme technologique et tous anti covid plutôt que le lien entre les humains. sinon pb de surveillance, de clivage, prop imaginaire de la société de contribution ++
solidarité numérique, société du commun. Sortir du capitalisme petit à petit. Lutter et résister.
i aussi à https://tools.immae.eu/Shaarli/ind1ju?YEab-g