Connu / https://framapiaf.org/@Bullzebuth@toot.portes-imaginaire.org/113303999388322016
"
Marnic a partagé 1 j
Bullzebuth@toot.portes-imaginaire.org
marnic Bullzebuth @Bullzebuth@toot.portes-imaginaire.org
Encore un sacré reportage chez Arte, et ça cause un peu du fédiverse.
Collectif Liberté Numérique | Invidious
Disparaître - Sous les radars des algorithmes Comment protéger ses activités numériques de la surveillance et de la malveillance ? Un panorama didactique des solutions alternatives à la portée de tous. "Nos libertés sont en train de s’évaporer sous nos yeux", s’alarme une jeune chercheuse hongkongaise. Tous les jours, les données personnelles que chacun laisse sur les outils gracieusement mis à sa disposition par les #Gafam – messageries instantanées, réseaux sociaux, navigateurs, moteurs de recherche, services de cartographie en ligne et de géolocalisation... – fragilisent le droit à la vie privée. À des degrés divers, l’activité numérique nous expose à de multiples risques : hacking, espionnage commercial, policier ou étatique, cyberharcèlement… Dès lors, comment échapper en ligne à la #surveillance et à la malveillance ? Protection, mode d’emploi Au travers des témoignages d’un performer berlinois désireux de s’émanciper de Facebook, d’enseignants du lycée français de Casablanca sensibilisant leurs élèves au harcèlement en ligne, de journalistes d’investigation qui s’ingénient à protéger leurs sources ou encore d’une jeune Hongkongaise, cible potentielle des autorités chinoises, ce #documentaire didactique dresse un panorama des solutions pratiques #alternatives pour échapper à la toute-puissance des #algorithmes et protéger sa vie privée sur le Web. Réalisation : Marc Meillassoux Production : LuFilms Producteur/-trice : Laurence Uebersfeld Pays : France Année : 2021 Documentaire complet en français
"
Tr.: ... compartimentation de sa vie numérique ... Berlin ... Maroc ... les adolescents à Casablanca ... Meudon ...
... Biais automatiques du langage, bulles algorithmiques... L'intelligence artificielle par son fonctionnement même d’apprentissage, renforce des biais de sexe, de genre, de culture, d’origine et de classe sociale. Comment prévenir et lutter contre ces biais ? Comment inventer des systèmes de test d’inclusivité des textes ? Enfin, comment agir pour plus de diversité parmi celles et ceux qui font l’IA ?
Alors que le développement de l'IA occupe de plus en plus l'espace médiatique, la prise de conscience de ces biais doit être le premier pas !
...
Les expertes
- Daphné Marnat, anthropologue et CEO de Unbias
- Audrey Baneyx, ingénieure de recherche en humanités numériques au médialab de SciencePo
- Isabelle Bloch, enseignante chercheure informatique, LIP6, CNRS, Sorbonne Université.
Alice Laisney, chargée de projet au Centre Hubertine Auclert, animera cette conférence en libre accès.
La vidéo aussi sur https://tools.immae.eu/Shaarli/ind1ju?s9II2g
Tr.: ... Définition de Marvin Minsky (1927-2016) : Science qui permet aux machines de faire ce qui serait qualifié d'intelligent si c'était fait par des êtres humains. ... 1956 Conférence de Dartmouth : les pères fondateurs de l'IA : John MacCarthy, Marvin Minsky, Claude Shannon, Ray Solommonoff, Alan Newell, Herbert Simon, Arthur Samuel, Oliver Selfridge, Nathaniel Rochester, Trenchard More. ... Deux paradigmes - rationalité de la déduction vs voie empiriste de la déduction :
- IA symbolique
. Représentation des connaissances par des symboles.
. Rôle majeur de la logique.
. Axiomatique et modèles, raisonnement selon une théorie, conclusion non réfutables.
. Exemples : raisonnement logique, règles, arbres de décision... - Apprentissage (numérique, statistique)
. Guidé par les données de l'expérience.
. Garanties statistiques.
. Conclusions potentiellement réfutables.
. Engouement actuel pour l'IA.
. Exemples : réseaux de neurones (profonds).
... Contrôle des biais ?
- Biais statistiques
. Données utilisées, annotations
. Représentativité
. Évolution des données, mises à jour des modèles et algorithmes
. Qu'est-ce qui est appris ? - Biais cognitifs
. Cadrage
. Confirmation
. Complaisance
... l'IA entretien des stéréotypes ... CV anonymisés ... produire des indicateurs d'éthique ... chatbots ... risques discriminatoires ... je suis pour les quotas de femmes ... égalité des chances ... logiciels de traduction ... rapport sur l'égalité homme-femme ... ChatGPT ... GPT_architecture.html ... Le problème des datasets et leurs biais Modèle FlauBERT, CNRS calculé sur le Jean Zay (GENCI)
Les hommes sont des hommes / Les femmes sont des victimes
...
Cité
Le problème de la couche d'apprentissage par renforcement ou des humains qui sont derrière
Les principaux visages derrière OpenAI : Elon Musk - Sam Altman - Greg Brockman - Peter Thiel - Reid Hoffman - Satya Nadella
...
agent conversationnel / bilan carbone, ce n'est pas neutre ... autre outil : You de Richard Socker ... open source ... projet de Oh My Voice ... mésutilisation des mots ...
La Quadrature du Net @laquadrature
Demain, débute en commission des lois la discussion générale sur la loi JO ! Ce n'est que le début de la bataille, alors venez à nos sessions collectives d'appel ce jeudi 2 mars à Paris et Marseille pour pour exiger le rejet de l'art 7 et l'interdiction de la VSA.
#NONArticle7
Image
3:05 PM · 28 févr. 2023 · 17,4 k vues 150 Retweets 7 Tweets cités 204 J'aime
- À Marseille, cela se passera à la Mi-Hantée, 88 rue d'Alger à partir de 16h et la session d'appels sera suivie d'un atelier de contribution artistique autour de la loi JO pour sensibiliser et informer sur le sujet.
#Technopolice #PJLJO - À Paris, ce sera dans nos locaux au 115 rue de Ménilmontant de 14h à 18h. Et sinon, vous pouvez aussi appeler depuis chez vous et dès maintenant. Les contacts des parlementaires et les arguments phares pour les convaincre sont sur notre page de campagne !
laquadrature.net
Loi J.O. : refusons la surveillance biométrique
Courant mars, l'Assemblée nationale va se prononcer sur le projet de loi relatif aux Jeux olympiques et paralympiques, déjà adopté par le Sénat. En son sein, l'article 7 vise à autoriser la vidéosu... - VSA ??
klorydryk @klorydryk · 16h Vidéo-Surveillance Automatisée ou Algorithmique-VSA
Comment protéger ses activités numériques de la surveillance et de la malveillance ? Un panorama didactique des solutions alternatives à la portée de tous.
"Nos libertés sont en train de s’évaporer sous nos yeux", s’alarme une jeune chercheuse hongkongaise. Tous les jours, les données personnelles que chacun laisse sur les outils gracieusement mis à sa disposition par les Gafam – messageries instantanées, réseaux sociaux, navigateurs, moteurs de recherche, services de cartographie en ligne et de géolocalisation... – fragilisent le droit à la vie privée. À des degrés divers, l’activité numérique nous expose à de multiples risques : hacking, espionnage commercial, policier ou étatique, cyberharcèlement… Dès lors, comment échapper en ligne à la surveillance et à la malveillance ?
Protection, mode d’emploi
Au travers des témoignages d’un performer berlinois désireux de s’émanciper de Facebook, d’enseignants du lycée français de Casablanca sensibilisant leurs élèves au harcèlement en ligne, de journalistes d’investigation qui s’ingénient à protéger leurs sources ou encore d’une jeune Hongkongaise, cible potentielle des autorités chinoises, ce documentaire didactique dresse un panorama des solutions pratiques alternatives pour échapper à la toute-puissance des algorithmes et protéger sa vie privée sur le Web.
Réalisation : Marc Meillassoux
Production : LuFilms
Producteur/-trice : Laurence Uebersfeld
Tr.: ... mobilizon et le fediverse à Berlin ; Framasoft ; Richard Stallman ; ... Tor+SecureDROP ; Lineage à la place de Android ; Moodle+BBB pour l'enseignement ; Tails ? ACT
L'entretien d'actu
Clés : Amérique du Nord ; Capitalisme ; Critique des médias ; Culture ; Démocratie
Les algorithmes des grosses plateformes numériques nous manipulent-ils ? Font-ils de la politique ? Choisissent-ils à notre place les contenus que nous consommons et comment s’y prennent-ils ? Font-ils courir des risques à la démocratie ?
Notre invité, Marc Faddoul est chercheur en intelligence artificielle, diplômé de la prestigieuse université de Berkeley aux Etats-Unis. Il a également bossé pour Facebook. Marc Faddoul a cofondé une organisation à but non lucratif dénommée AI Forensics. Il travaille principalement sur deux projets passionnants : le premier vise à débusquer les secrets des algorithmes de recommandation de YouTube, Facebook, Amazon ou Pornhub ; et le second est un plugin qui permet de proposer un autre système de suggestions à ceux qui regardent nos vidéos sur Youtube et qui ont téléchargé le plugin en question.
Le plugin s’appelle YouChoose AI. Les constats de Marc Faddoul sont à la fois de bon sens et préoccupants. “YouTube décide ce que le monde regarde. Mais personne ne sait comment”, par exemple. L’algorithme de Tik Tok peut s’avérer dangereux pour l’équilibre mental des plus jeunes. Celui d’Amazon est construit pour créer un univers de concurrence déloyale au profit de la firme dirigée par Jeff Bezou. Et Pornhub promeut des catégories sexuelles problématiques. Voyage dans un univers où règne la loi de la jungle, de l’argent roi et du temps de cerveau disponible.
Tr.: ... logiciel libre ... ambivalence ... curation... YouChoose, système de recommandation alternatif, future plateforme de recommandation ... aller chercher les gens là où ils sont et les amener sur les alternatives ... interopérabilité adversarielle ++
... à la rentrée du Médiatv émission à 18 h "toujours debout !"
Ndlr :* aussi dispo sur peertube à https://tools.immae.eu/Shaarli/ind1ju?MVRI_A
• 58 vues Avatar de la chaîneAvatar du compte Par lqdn
Pour en savoir plus sur la loi sécurité globale : https://www.laquadrature.net/2020/11/24/securite-globale-lassemblee-nationale-vote-pour-la-technopolice/
Pour en savoir plus sur les décrets du 2 décembre : https://www.laquadrature.net/2020/12/08/decrets-pasp-fichage-massif-des-militants-politiques/
Vie privée : Publique
Publié originellement 07 décembre 2020
Catégorie : Actualité & Politique
Licence Inconnu - Langue Français
Étiquettes : GAFAM ; Surveillance
Durée 27 min 11 sec - 0 Commentaires
... C’est la société que prépare Amazon, Deliveroo et Uber. Des pieuvres qui déploient leurs tentacules pour etouffer les uns après les autres les petits commerçants. Des ogres bien aidés par le tapis rouge dressé par le gouvernement.
Heureusement, l’eurodéputée insoumise Leïla Chaibi resiste encore et toujours à l’envahisseur et à la destruction du droit du travail. Leïla Chaibi vient de proposer une directive européenne prête à l’emploie à la commission européenne, pour protéger les travailleurs ubérisés des plateformes numériques comme Uber et Deliveroo… une première historique !
...
Connu / https://twitter.com/L_insoumission/status/1328662962983284738
"@leilachaibi VS le monde d’#Amazon, #Uber et #Deliveroo ... propose une directive Drapeau de l'Union européenne pour protéger les travailleurs des plateformes numériques..."
Tr : ...
simulateur de salariat ... l'algorithme est le patron ... bénéfices non déclarés en france mais au luxembourg car moins cher, ATTAC disait que le manque à gagner de l'état était similaire aux besoins financiers des hôpitaux ... 20 projets d'entrepôts en fr ... on continue, flux en avion, pourrissent santé, environnement, étude LREM qui montre qu'on détruit des emplois ... impunité de ces grands groupes ...j'ai commencé à militer à génération précaires ... micro-entrepreneurs pris par casino, donc risque de se propager à l'ensemble de la société ... en californie, une loi a imposé le salariat à UBER qui l'a fait annuler par un référendum ... en europe, les tribunaux nous donnent raison sur le lien de subordination ...
Le réseau social déploie une nouvelle option dédiée au fil d’actualité, qui consiste à remplacer la sélection de Facebook par un affichage chronologique bien plus basique.
Retour aux sources pour Facebook. Face aux nombreuses critiques liées à l’opacité de ses algorithmes de sélection de contenus sur le fil d’actualité des utilisateurs, l'entreprise californienne propose une nouvelle option de personnalisation, détaille Alexandru Voica, en charge de la communication de l’entreprise.
Depuis quelques heures, la firme californienne déploie une fonction laissant un plus grand choix aux utilisateurs concernant l’affichage des publications sur leur fil d’actualité. Ils peuvent notamment opter pour une disposition sans sélection algorithmique, qui se contente d’afficher les publications par ordre chronologique (avec les plus récentes en haut de page). Une mise en page déjà accessible, mais sur une page différente du fil d'actualité.
...
En choisissant cette option, qui devrait arriver dans les prochains jours en France, l’utilisateur pourrait ainsi voir apparaître des publications issues “d’amis” Facebook que l’algorithme choisissait de ne plus afficher, les jugeant trop éloignés de ses centres d’intérêts.
La fonction "Récents" devrait être proposée dès l'ouverture de l'application ou du site du réseau social. Il sera également possible de l'activer dans l'onglet "Préférences du fil d'actualité", accessible depuis le menu "Paramètres et confidentialité".
Pour Facebook, il n'est toutefois pas question d'abandonner sa sélection algorithmique. Même si l'utilisateur opte pour un affichage chronologique, il retombera sur le fil d'actualité personnalisé à chaque nouvelle ouverture de l'application. Pour définitivement se passer de l'algorithme du réseau social, il faudra donc renouveler l'opération à chaque fois.
https://twitter.com/GrablyR
Raphaël Grably Chef de service BFM tech
Ndlr :
- ça va être laborieux donc dissuasif...
- info de 2020 ou 2018 selon https://www.ouest-france.fr/economie/entreprises/facebook-ce-que-change-le-nouvel-algorithme-5508557 ?
894/100000 SIGNATURES
...
Le problème est que le droit américain s’applique au monde entier !
Ainsi le CLOUDAct (Clarifying Lawful Overseas Use of Data Act) permet à la justice américaine de récupérer les données stockées sur des serveurs appartenant à des sociétés américaines, même s’ils sont situés en Europe. Microsoft est soumis à ce texte qui est en conflit avec notre règlement européen sur la protection des données (RGPD).
Pire encore, s’agissant des programmes de surveillance américains, les textes internationaux “ne [font] ressortir d’aucune manière l’existence de limitations à l’habilitation qu’[ils] comportent pour la mise en œuvre de ces programmes, pas plus que l’existence de garanties pour des personnes non américaines potentiellement visées”. La Cour de Justice de l'Union Européenne a ainsi ouvert la brèche en bloquant légalement l'échange des données entre l'Union Européenne et les États-Unis par l'invalidation cet été d'un accord nommé "Privacy Shield".
...
Ndlr : signée ? NON, FranceConnect m'en empèche, mais regret que pas un mot sur les algorithmes qui, selon l'ém de Fi, sont la clé de la mission confiée à MS. Valoriser ACT
François BOCQUET a retweeté
ZDNet.fr @zdnetfr · 6 août
Une équipe de chercheurs du MIT et d'Intel a créé un algorithme qui peut créer des algorithmes. À long terme, cela pourrait changer radicalement le rôle des développeurs de logiciels.
Développeurs : comment les projets d'automatisation du codage pourraient tout changer
Une équipe de chercheurs du MIT et d'Intel a créé un algorithme qui peut créer des algorithmes. À long terme, cela pourrait changer radicalement le rôle des développeurs de logiciels.
zdnet.fr - 0 - 19 - 6
Connu / https://framasphere.org/posts/9893901
"
Facebook « nuit aux gens à grande échelle » : un ingénieur témoigne et quitte la firme avec fracas
« Robots tueurs » dans l’armée : deux députés soulignent la nécessité d’un contrôle humain
Le fils de Carlos Ghosn soupçonné d’avoir payé 500.000 dollars en cryptomonnaies pour l’évasion de son père
D’étranges amendes « sans contact » ont été envoyées à des manifestants en Aveyron
Invisibles, des femmes dénoncent l’algorithme sexiste de YouTube
Chine : la reconnaissance faciale désormais obligatoire pour acheter un nouveau téléphone
Racisme policier : les géants du Net font mine d’arrêter la reconnaissance faciale
Lire : Ganascia, « Le mythe de la singularité »
Dire qu’il y a des scientistes que cela ne derange aucunement, au contraire, ils sont plutot pour rendre l’IA encore plus rapide…
Qui sont les vrais croyant et les vrais irrationnels ? Est-ce que les capacités cognitives -si tant est que cela ai un sens- de ce type sont suffisante pour le rendre aussi sage, et l’est-il autant sur le plan humain et social ?
La question est vite répondue…
.#gafam #orwel #bigbrother #littlesister #tic #fichage #rgpd .#technopolice #cnil #flicage #surveillance #policepolitique #renseignement
.#préjugés #zététique #réactionnaires #scientistes
.#rationnalisme #scepticisme #espritcritique
.#science #philosophie #sociologie #politique #éthique
.#anarchisme #anarchaféminisme #libertaire #émancipation .#autogestion #luttedesclasses
"
=>
"
Julien Delalande - il y a 21 minutes
Eh oui, confrontation entre ivresse scientiste passionnante mais adolescente, et risques sociaux/politiques engendrés par les résultats de la science à l’âge adulte… Merci pour ce post passionnant.
+
Comment sortir de cette quadrature du cercle ? Par l’éducation et la culture ? Beau chantier de médiation…
+
Je pense aux peuples opprimés - Ouïgours, Kurdes, etc - pour qui notamment le cryptage est INDISPENSABLE… Comment maintenir “le mauvais génie” dans sa lampe dirait Aladin… ?
"
Connu / https://twitter.com/ctrabado1/status/1286943466040307713
"
François BOCQUET a retweeté
christine Trabado @ctrabado1 · 25 juil.
Programmer en #Python: modéliser l’évolution temporelle d’un système chimique
➡ Index pointant vers la droite
Une ressource pour l’#enseignement de #spécialité #physiquechimie #Terminale
.#Cinétique #chimie #programmation #codage #algorithme #nouveauxprogrammes #Rentrée2020 #Bac2021
1 - 19 - 18
"
90 min - Disponible du 14/04/2020 au 19/06/2020 - Prochaine diffusion le vendredi 15 mai à 09:25
Ce programme est disponible en vidéo à la demande ou DVD.
Des caméras de Nice à la répression chinoise des Ouïghours, cette enquête dresse le panorama mondial de l'obsession sécuritaire, avec un constat glaçant : le totalitarisme numérique est pour demain.
Aujourd'hui, plus de 500 millions de caméras sur la planète offrent aux autorités la capacité de nous surveiller, à peu près partout et à chaque instant. Sous couvert de lutte contre le terrorisme ou la criminalité, les grandes puissances se sont lancées dans une dangereuse course aux technologies de surveillance. Dorénavant, l'incroyable perfectionnement de l'intelligence artificielle valide l'idée d'un regard total. Aux États-Unis, les forces de police utilisent la reconnaissance faciale pour identifier les suspects. En Chine, les caméras peuvent repérer les criminels de dos, à leur simple démarche. En France, la police utilise des caméras intelligentes qui analysent les émotions et les comportements des passants. Marquée par l'attentat au camion du 14 juillet 2016, qui a fait 86 morts, et s'est produit en dépit des 2 000 caméras scrutant la ville, Nice se situe désormais à l'avant-garde de l'expérimentation. Le centre de supervision et les zones dédiées à la reconnaissance faciale sont les chevaux de bataille du maire Christian Estrosi, qui veut faire de sa ville une safe city. Comme un virus, l'idéologie du tout sécuritaire se répand à la mesure d'une révolution numérique à la puissance exponentielle. Va-t-elle transformer notre monde en une planète habitée par 7 milliards de suspects ? Quel niveau de surveillance nos libertés individuelles peuvent-elles endurer ?
Dictature 3.0
On le surnomme le "marché de la peur", estimé à 40 milliards de dollars par an. Colossaux, les enjeux de la surveillance intelligente aiguisent les appétits de sociétés prêtes à promouvoir le "modèle Big Brother" pour engranger les plus grands bénéfices. L'enquête internationale de Sylvain Louvet démonte les rouages de cette machine aux innombrables facettes et dévoile la relation incestueuse qui se noue entre les industriels et les pouvoirs publics. En Israël, elle souligne les liens entre l'armée, le Mossad et les start-up technologiques, soupçonnées de tester la reconnaissance faciale aux checkpoints. En France, elle met en lumière l'influence du secteur privé, dans les orientations choisies par le maire de Nice, Christian Estrosi. Aux États-Unis, l'enquête donne la parole à ceux qui dénoncent la faillibilité du logiciel de reconnaissance faciale d'Amazon couplé à un fichage biométrique généralisé. Le documentariste a également réussi à enquêter en Chine, pays où l'obsession sécuritaire est en passe de donner naissance à une nouvelle forme de régime : la dictature 3.0. Arrestations "préventives" arbitraires, mise en place d'un système de notation des citoyens, fichage ADN et persécution systématisée (allant jusqu'à l'apposition d'un QR code sur la porte des appartements) de la minorité musulmane des Ouïghours… L'arsenal de la répression connaît un degré de raffinement inédit dans l'histoire de l'humanité. Un camp du Goulag numérique : telle est la vision du futur dessinée par ce documentaire aussi percutant que glaçant.
Réalisation : Sylvain Louvet Producteur/-trice : Capa Presse Auteur : Sylvain Louvet Pays : France Année : 2019
Transcription : ... Eylon Etshtein ceo de AnyVision, israël modélisation du visage par 500 millions de chiffres ... isaac ben-israël, vision pour la défense, 6 millions de juifs entourés de 360 millions d'arabes ... Amir kain, responsable du contre-espionnage israélien (2007-2015), tamir Pardo directeur du MOSSAD (2011-2015) fondateurs de AnyVision. Utilisé secrètement pour surveiller les palestiniens. En 15 ans, les actes terroristes sont passés de 2000 à 14000. Quant au nombre de tués, il a été multiplié par 9. Comme un virus, la peur des attentats se propage et les villes se protègents. Marché de la vidéosurveillance intelligente de 40 milliards de $. Laurent Mucchielli, directeur de recherche au CNRS : c'est une société paranoïaque en fait. Surveiller tout le monde, donc soi-même en permanence. Christian Estrosi, quand ya 86 morts sur la promenade des anglais, on peut appeler ça de la paranoïa, c'est presque une vision. Pour moi, ce sont des faits. La France est en guerre. ennemis de 5ème colonne. Fasciné par le modèle israëlien, caméra pour détecter les émotions dans les transports, faire de nice une safe city, un projet piloté par thalès, le géant fr de l'armement. LM : 98% des détections l'ont été par du renseignement. Concernant les attentats de nice, ce qui nourrit le travail des enquêteurs après coup, ce sont les éléments classiques de l'enquête de police : étude de voisinage, étude de l'ordinateur. Pas les caméras qui n'ont fait que filmer l’horreur à l'instant où elle se produit, cad qu'elles n'ont servi rigoureusement à RIEN. Le discours politique continue, ça ne marche pas, mais je suis déjà passé à l'annonce suivante. C'est une fuite en avant. Camper la posture, faire tourner le commerce, dans une alliance objective.
Inquiếtudes : atteintes à la liberté individuelle dénoncées par des associations : Valencienne, Saint-Étienne, La quadrature du net et la ligue des droits de l'homme multiplient les recours pour non respect du rgpd. Martin Drago de LQDN. absence de cadre juridique, les élus en profitent, on peut expérimenter. Il faut lutter contre cette opacité. TES fichier électronique sécurités créé en 2016 et géré par le ministère de l'intérieur français. Regroupe l'ensemble des cartes d'identité et des passeports. 1ère étape d'une surveillance de masse avec la photo du visage. Fichage biométrique de toute une population. Ex usa suite 11/9/2001, le patriot act étent considérablement les pouvoirs de surveillance. Trump l'étend avec la reconnaissance faciale /aéroports, police, écoles, etc. Des manifs. sur les dangers d'apparition d'un état de surveillance. Plus de la moitié des américains fichés et personne ne le savait ! Le congrès ne l'a jamais autorisé. Incapacité à identifier correctement les personnes de couleur ~10%, ils ont donc plus de chances d'être accusés de crime qu'ils n'ont pas commis. Recognition d'amazon testé a montré le niveau très élevé des mauvaises reconnaissances. Mais amazon continue à le vendre à 12€/mois ! Mis au service d'armes létales. Liz O'Sullivan resp éthique (2016-2017) clariFAI : l'ambiance change, le pdg cache qque chose, dissout le comité éthique, méfiante, ell enquête et découvre la dissimulation : contrat avec la défense usa pj maeven de millions de $ /drones tueurs. Invest de 70 millions de $ /machine décide de tuer. En europe, idem cf rapports comm europ : chris jones ex pj roll border, des millions de fonds dépensés. 1,4 milliards de fonds publlics européens, influencé par les grandes entreprise airbus, trhalès, etc. Le gr d'experts : sur 20, 1/3 déclare des liens avec la sécurité. En Chine, la réalité a déjà dépassé la fiction. Les citoyens ont si bien intégré la présence des caméras. XI JIPing prend conscience de la puissance des caméras intelligentes. 1ère dictature numérique au monde; Les licornes au coeur du système avec à l'intérieur une cellule du parti. Univers orwellien. En 2020, 600 millions de caméras ! GE YULU, artiste défie ce système en regardant pendant des heures une caméra ! et dénonce cette surveillance. Les autorités ont un dossier sur chaque citoyen à la soviétique. contrôle social sans limites. ex train changaï-pékin. score de crédit social, notation des citoyens fonction de leur comportement. diffuser la morale communiste jusque dans les zones les plus reculées comme rongcheng? La délation fait gagner des points ! Le groupe prime sur l'individu. inventé par Lin Junyue. On contrôle les risques, les comportements vertueux. Les citoyens muselés. 20 millions de citoyens placés en liste noire. H transformé en machine c'est terrifiant. Cambodge, chili, sry lanka intéressés ?! -> nouvelles route de la soie numérique, dt la fr ! visite dénoncée par lasso dr de l'h tibétains, ouighours en 2009, enregistrement vocal, décodeur destiné aux familles enregistrer les conversations pour partager nos opinions politiques. au XinTiang ? manif réprimée durement affrontement interethniques des centaines de morts. Virage totalitaire zone la plus surveillée au monde. qrcode /suirveiller les familles, la cible, les musulmans pratiquants ! enfermés dans un camp, à plus d'1 million de personnes soit 1/10ème de la population ! "centre d'enseignement" prison, chocs électriques, médicaments /briser leur identité on les force à parle de mandarin, à faire allégeance au gouv et au parti. Une appli chinoise, rétro-ingénierie ->suspects. derrière, entreprise d'état CETC algorithme de la répression rapport de HRW humain rights watch. ethnocide culturel ... avec la technologie, les sentiments disparaissent.
San Francisco a fait un choix unanime bannir la reconnaissance faciale de ses rues. ...
19 novembre 2018
Vassily Kandinsky, Cercles dans un cercle, 1923.
Il est devenu courant d’entendre de nos jours des propos sur « l’effondrement de LA société industrielle ». Mais c’est sans doute trop simpliste. Nous soutiendrons dans cet article que, en certains lieux, le capital informationnel qui caractérise cette civilisation (techniques, procédés, savoir-faire, organisations… ) continuera d’augmenter, ainsi que la résilience au réchauffement climatique et à la déplétion des ressources.
Nous partirons de la définition de l’effondrement de Joseph Tainter, un des pionniers de l’approche scientifique de cette notion. Elle tient en 3 points : 1/ Plus une société est complexe, plus elle requiert de l’énergie ; 2/ Après avoir épuisé l’énergie bon marché et la dette abordable, elle perd sa capacité à résoudre ses problèmes ; 3/ L’effondrement est la simplification rapide d’une société.
Cette définition lie l’effondrement à la notion de complexité, et celle-ci aux flux énergétiques. C’est un lien qu’étudie aussi la thermodynamique, en particulier à partir des travaux de Igor Prigogine sur les structures dissipatives1: ce sont des structures qui reçoivent un flux énergétique de l’extérieur, mais qui créent des formes d’organisation à l’intérieur via importation et mémorisation de l’information. L’eau qui bout dans une casserole est l’image classique d’une telle structure, mais c’est aussi valable pour les cellules qui mémorisent l’information dans l’ADN, et pour les sociétés humaines qui la mémorisent via la transmission culturelle.
l’évolution biologique se traduit par une augmentation de la complexité (des organismes eucaryotes aux animaux), qui a pour support une information stockée dans les gènes sous forme d’ADN. Selon la théorie darwinienne, les gènes se répliquent, évoluent par altérations et fusions, et transmettent les changements favorables à leur descendant. Ils augmentent ce faisant leur capacité à se perpétuer et à s’adapter à l’environnement, c’est-à-dire à ‘résoudre les problèmes’ selon les termes de Tainter.
L’évolution de la culture humaine est similaire. Les pratiques agricoles par exemple se transmettent de génération d’agriculteurs à la suivante, via le langage, l’imitation, les livres ou, plus récemment, Internet. Elles peuvent évoluer par le hasard ou l’adaptation de pratiques développées par ailleurs. Les pratiques les plus efficaces augmentent la résilience des sociétés qui les adoptent2, ce qui renforce leur diffusion. Il en est de même pour les pratiques militaires, les savoir-faire pour fabriquer des objets, les capacités à échanger ou à organiser une société en croissance démographique, etc3.
Ces évolutions peuvent être considérées comme l’évolution d’algorithmes.
...
1 Lire François Roddier “Thermodynamique de l’évolution” pour en savoir plus
2 Lire Jarred Diamond “De l’inégalité parmi les sociétés” ; L’histoire de la Grande Peste de 1346 est aussi un bon exemple de résilience à un cataclysme permise par le progrès technologique : lire Michel Lepetit https://bit.ly/2qutedZ
3 Le concept de Mème est intéressant pour étudier ces évolutions:https://bit.ly/2FeDGRl
4 Lire Yuval Noah Harari pour de long développements de cet argument, en particulier ‘Homo Deus”
5 Nous développons cet aspect dans d’autres articles, par exemple:
http://nxu-thinktank.com/et-si-les-algorithmes-dia-evoluaient-egalement-suivant-des-lois-darwiniennes
6 Pour approfondir, lire ;http://decroissance.blog.lemonde.fr/2016/11/18/algorithmes_et_decroissance/
7 Par exemple Meadows dans:https://lemde.fr/2QqGc7O
5 juillet 2016
Voitures sans chauffeur, jeu de go, remplacement des travailleurs par des robots, autant de nouveautés qui manifestent une accélération technologique dont le rythme est sans commune mesure avec l’évolution génétique. Uber, Google et les “Gafa” prospèrent grâce à l’accélération du rythme de comparaison des algorithmes. Aujourd’hui Amazon prévoit que les colis seront livrés par des drones bourrés d’algorithmes. Des robots vont remplacer les humains dans bien des domaines, y compris la médecine, la justice. Dès lors, quelle décroissance opposer à cette lame de fond ? Y a -t-il des manières résilientes d’utiliser les algorithmes ?
Les technologies de l’information peuvent-elles aider à construire une société résiliente ? Celle-ci peut-elle être conviviale ?
Nous vivons en effet une révolution en matière de “numérique”, avec une explosion des informations collectées et l’augmentation des capacités d’échange et de traitement automatique de celles-ci. Certains veulent croire qu’elle apportera de la croissance, ou plus de bonheur, tandis que d’autres craignent pour nos libertés individuelles, ou doutent de la pérennité. Nous analyserons les arguments présentés, mais en prenant un regard décalé, celui de la perspective d’un effondrement systémique causé, notamment, par la déplétion des ressources énergétiques. Pour ce faire, nous reviendrons sur l’équivalence fondamentale entre entropie et information, et nous intéresserons aux liens entre énergie et contrôle, complexité et stabilité. Nous revisiterons, en utilisant notamment des concepts de thermodynamique, de Darwinisme et de conservation de l’information, un certain nombre des travaux de “Momentum” tels que ceux sur le rationnement, les low-tech, les monnaies locales, les biens communs et la démocratie. Tout cela nous permettra d’avoir de nouvelles grilles de lecture pour comprendre l’évolution des sociétés humaines, ce que nous illustreront sur quelques exemples. Nous devrions aussi avoir des éléments de réponse aux questions posées.
Lire le séminaire du 3 juin 2016 de Thierry Caminel ici https://docs.google.com/document/d/1wulsRD_YqufCiVq870H6QoDUQT2EyItxji5HjR7KYBg/edit?ts=577a142e
&
présentation https://docs.google.com/presentation/d/1W9VTG59E7QotgI6gZSV4ffRwvJ9j1G1m5SH_f4WHBSw/edit
Auteur: ThierryCaminel
*Transcription :
... Ma thèse: Les sociétés contrôlant ces plateformes sont: des structures dissipatives « anti-fragiles» ...
Publié le 31/01/2020 - Durée : 00:57:52
Intervenant(s) : Pascal Bourdon, Laboratoire XLIM - Université de Poitiers
Connue / https://twitter.com/mdrechsler/status/1228700189751488513
Transcription : ... 20:50 le modèle PAC( Probablement Approximativement Correct) ... réseau de neurones artificiel ... bioinspiration ... apprentissage profond ... pb d'opacité fait peur ... boîte noire ... agent rationnel ... biais cognitif ... aide au diagnostic ...
Diffusé le 4 septembre 2019 dans 'La méthode scientifique' sur France Culture. Entretien réalisé par Céline Loozen.
« Le Libra repose sur un algorithme de consensus et sa blockchain repose sur l’approche BFT (Byzantine Fault Tolerance), qui permet d’aboutir facilement à un consensus pour la bonne exécution des transactions. Eclairage d’Axel Simon, membre de la Quadrature du Net et spécialiste en sécurité et blockchain. Par Céline Loozen ».
Lien de diffusion : https://www.franceculture.fr/emissions/la-methode-scientifique/facebook-il-ne-lui-manque-plus-que-la-monnaie
Tribune
La relation qui existe entre le patient et le système de soin est basée sur la confiance, valeur fondamentale assurée par le serment d’Hippocrate. Or, un nouvel acteur a fait son entrée : le fameux *data scientist, le scientifique de la donnée. Il est capable de prouesses prédictives et de classifications jusqu’ici hors de portée.
Une plateforme d’exploitation des données de santé
Si la France est engagée depuis une dizaine d’années dans un challenge de taille : la constitution de bases de données médicales, cela est dû à l’intelligence artificielle qui a besoin d’agréger un volume important de données générées localement pour leur donner un sens à une autre échelle, européenne notamment.
Le Président de la République a indiqué que la santé serait un des secteurs prioritaires pour le développement de l’intelligence artificielle. Il a annoncé une action majeure : la création d’un "Health Data Hub" qui devrait voir le jour fin novembre. Ce dernier se pose en futur guichet unique d’accès à l’ensemble des données de santé issues de la solidarité nationale et générées sur le Territoire.
Une telle plateforme qui facilite les interactions entre producteurs de données de santé, utilisateurs et citoyens, avec des conditions de sécurité élevées semble primordiale pour favoriser les innovations dans le secteur de la recherche.
Néanmoins, il existe quelques zones d’ombre sur certains acteurs, proches des GAFAM, à l’initiative de ce beau projet : le Fondateur de la start-up OWKIN qui lève régulièrement des fonds auprès de Google Venture, voire l’infrastructure retenue qui reposera sur Microsoft AZURE. Loin de vouloir remettre en cause les choix effectués, la question se pose sur les conséquences.
Et la sécurité ?
... pseudonymisation des données ... pour être Hébergeur de Données de Santé, il faut être en capacité de répliquer les données sur plusieurs data centers. Ce qui explique que des opérateurs tels que Google, Microsoft ou Amazon soient labellisés. Pourtant, la sécurité de la totalité de la chaîne est dépendante de celle des processeurs, ce qui n’est pas forcément pour nous rassurer. Les fournisseurs de données deviennent en plus tiers de confiance et centralisent un peu plus les pouvoirs chaque jour.
Une fois brisée, la confiance ne se reforme plus
... sacrifiée au nom de la rentabilité et du pouvoir
...
Si la CNIL avec l’éthique des algorithmes, et l’Ordre des Médecins encouragent à placer l’éthique au cœur du projet de données de santé, pourquoi s’entêter à brader la sécurité des données de santé française ? Une fois que le gué sera passé, il ne sera plus possible de revenir en arrière, c’est maintenant qu’il faut agir : nous sommes aux urgences !
Connu / https://framapiaf.org/@rckloar/103057223910020258 -> https://my.framasoft.org/u/ind1ju/?kZWB1g
Ndlr : il est gonflé de dénoncer que " la confiance est sacrifiée au nom de la rentabilité et du pouvoir" alors qu'il appartient à une majorité qui joue pleinement ce jeu là avec son idéologie ultralibérale ! => gazou https://twitter.com/JulienDelalande/status/1190108386047778818 Faire suivre à référent santé LFI ACT
299 130 vues - 1,5 k - 119
Saison 1 Episode 3 (partie 1) : la finance folle, l'attaque des robots traders
Le monde de la finance est dominé par des machines hors de contrôle, qui pilotent des algorithmes élaborés par des mathématiciens dans le but de faire le plus de profit possible en l'espace de quelques secondes. Mais il arrive parfois que les logiciels s'emballent et provoquent ce que les experts appellent un «flash crack» : un effondrement de la bourse en quelques instants. «Cash Investigation» a enquêté dans le milieu des «speed traders» et a découvert leurs méthodes souvent choquantes. Les journalistes dénoncent un monde de la finance qui, quatre ans après la première crise de 2008, semble ne pas avoir tiré les enseignements.
Elise Lucet France 2 #cashinvestigation
Catégorie Actualités et politique