...
La seule barrière qui reste pour limiter la bêtise humaine, c’est l’acculturation [1]. Pour permettre aux gens de prendre des décisions pas trop mauvaises au regard de l’intelligence artificielle, le b.a.-ba, c’est que l’on comprenne de quoi ça parle et quels sont les impacts. Une fois que les gens ont compris cela, ils peuvent décider de l’utiliser, de ne pas l’utiliser ou de définir des règles d’utilisation, mais en ayant a minima une culture générale sur ce qu’est l’IA.
...
acculturer aux différents aspects de l’intelligence artificielle et de permettre aux gens de choisir des outils d’IA en accord avec leur système de valeurs. Je ne peux pas vous dire s’il y en a des mieux, mais il y a des outils qui portent des valeurs différentes. On pourrait regarder par exemple quelle est la consommation énergétique du système en question pour des performances sympathiques. On pourrait aussi regarder avec quelles données le système a été entraîné et est-ce que la collecte de ces données s’est faite en adoptant une stratégie légale. Ce n’est par exemple pas le cas de ChatGPT et encore moins pour Grok (l’outil d’IA de X).
...
pas entraînés que par des données, après ils sont affinés au travers d’interactions humains-machines. Il y a des humains, des travailleurs du clic, qui évaluent les requêtes. On peut ainsi regarder s’ils travaillent pour des salaires décents ou pas, s’ils sont payés à la tâche. Ainsi, on peut prendre une décision d’utiliser tel ou tel système parce qu’on se sent plus en phase avec la façon dont il a été construit et la façon dont il a été utilisé.
Aujourd’hui, parmi les modèles d’IA, il y a évidemment les modèles d’OpenAI comme ChatGPT, mais aussi d’autres entreprises américaines comme Anthropic, une boîte française qui s’appelle Mistral, l’Allemande Aleph Alpha... Il y a plein de petites start-ups qui proposent des modèles open source qui sont certes moins performants ou moins pertinents que ChatGPT, mais qui en général suffisent amplement à résoudre les problèmes pour lesquels on les sollicite.
...
se poser la question « est-ce que j’en ai vraiment besoin ? ». Parfois, la réponse est oui, il y a plein de situations dans lesquelles l’IA aide beaucoup. Ce n’est absolument pas mon but de dire qu’il ne faut pas l’utiliser. Mais l’utiliser moins souvent et pas pour faire n’importe quoi. C’est une forme de responsabilité.
...
sont des modèles statistiques, avec un nivellement par le centre de tout ce que l’on doit se dire, connaître, penser, savoir. Ce qu’il va se passer, c’est que si on n’encourage pas le développement d’alternatives, on va se retrouver à tous penser et parler comme ChatGPT.
[1] Processus par lequel une personne ou un groupe assimile une culture étrangère à la sienne. (Le Petit Robert)
Connu / https://bsky.app/profile/bastamedia.bsky.social/post/3lhbcqiwars2q
"
Basta! @bastamedia.bsky.social · 43m
Risques environnementaux, sociétaux et humains... Peut-il y avoir une utilisation responsable et éthique de l'intelligence artificielle ?
Entretien avec Amélie Cordier, fondatrice de Graine d’IA, entreprise de conseil et d’accompagnement à un usage responsable de l’IA. Par @emmabougerol.bsky.social
« Nous sommes incapables de maîtriser les conséquences de l'IA »
L'utilisation de l'intelligence artificielle peut-elle être responsable et éthique ? Face aux risques environnementaux, sociétaux et humains de l'IA, la spécialiste Amélie Cordier avance une piste de ...
"