Commentaire sur "L'IA vous assure. Ça vous rassure ?"
Une personne sous le pseudonyme Science4All a publié une vidéo intitulée "L'IA vous assure. Ça vous rassure ? Intelligence Artificielle 32". Il l'a fait le 16 juillet 2018 sur la plateforme privatrice et centralisé YouTube. Pendant la vidéo, il révèle son identité certifiée par l'État qui est Lê Nguyên Hoang et il fait l'auto-promotion de son livre "La formule du savoir - Une philosophie unifiée du savoir fondée sur le théorème de Bayes" (publié en 2018 chez EDP Sciences). Il y a des aspects de sa vidéo sur lesquels je ne suis pas d'accord, j'en propose une explication dans le présent article.
- Il évoque les assureurs, mais que ceux capitalistes ! Or la Sécurité Sociale peut être perçu comme un assureur, le plus gros de France ! C'est bizarre de faire l'impasse sur cela.
- J'ai sauté de ma chaise quand il a affirmé que les assureurs pouvaient garantir par la loi des grands nombres. Il est fait l'impasse sur le risque systémique ! Pourtant cela s'est produit il n'y a pas longtemps avec le système bancaire qui s'assurait (à coup de MBS, CDS, etc.), comme Frédéric Lordon l'explique très bien dans son livre "Jusqu'à quand ? Pour en finir avec les crises financières" (qui a été publié en 2008 aux éditions "Raisons d'agir").
- Ensuite la "redistribution des richesses par les assurances [capitalistes]", il ne faut pas exagérer non plus, elles n'ont pas attendu l'informatique pour personnaliser leurs offres et donc contribuer à accentuer ou maintenir les inégalités.
- Après j'ai bien rigolé sur la partie personnalisation, s'il n'y a plus de mutualisme (à ce sujet il faudra que je lise Pierre-Joseph Proudhon), les assureurs capitalistes courent à leurs propres pertes à cause de leur logique, puisqu'ils perdent leur utilité sociale. C'est un bel exemple de contradiction du capitalisme, qui sans régulation s'auto-détruit.
- Sur le fait que les données privées doivent être gérées par un tiers de confiance et que c'est une question de sécurité, je suis en farouche désaccord. Les fournir est le problème et même les créer dans un grand nombre de cas. Plutôt que naïvement se baser sur la confiance, je pense qu'il ne faut pas les produire. Mieux vaut ne pas créer le risque que de tenter de le gérer (dont il a bien conscience que "c'est complexe").
- Il y aurait des règles trop contraignantes pour les entreprises capitalistes. Puisque les personnes chercheuses n'arriveraient pas à faire des algorithmes qui les respectent, il serait malencontreux de forcer les entreprises à les respecter. Le principe de précaution ne devrait il pas être appliqué, même si cela implique d'interdire purement et simplement ce qui représente un grand danger et que l'on ne sait pas contrôler ?
- Il continue en versant dans la confiance dans les techos (j'en suis un) et la technique, en se lamentant de la très faible concrétisation. Tenter de gérer un problème plutôt qu'envisager de l'éliminer (qui est typique du pseudo-pragmatisme incapable d'imaginer une autre idéologie dominante et de remettre sérieusement en cause ce qui la soutient) et la technocratie ne me plaisent pas du tout.
- Trouver les plus pauvres avec le "big data" pour leur venir en aide… Du solutionnisme technologique aberrant : pas besoin de cela pour identifier les plus pauvres et cela n'explique nullement les causes génératrices. De plus, qui fera cela ? La vertu ne sauvera pas le monde, sinon cela fait longtemps qu'il n'y aurait plus de problème ou très peu. De plus, c'est ridicule d'invoquer des images satellites pour identifier les zones les plus pauvres (il évoque "Combining satellite imagery and machine learning to predict poverty" et Neal Jean), on les connait facilement sans une telle puissance technologique. Mais je conviens que cela a l'avantage de ne pas remettre en cause ce qui a généré les inégalités flagrantes. Cela est bien pratique pour celles et ceux qui vivent sur le dos des autres, qui pourront ensuite s'en servir pour se faire passer pour de généreuses personnes donatrices… en mettant soigneusement sous le tapis ce qui leur a permis d'avoir tellement plus. À ce sujet, j'ai écrit les articles "Des personnes n'aiment pas les riches…" et "En finir avec les aides sociales !" (dont je ne prétends pas qu'ils expliquent intégralement la génération de ce que je considère comme un problème).
- Violer la vie privée pour aider : l'impérialisme sous le voile du "bon père de famille". Cela en revient à s'en prendre à eux par 2 fois, en omettant la première et en présentant la seconde comme vertueuse. Sur le procédé, cela me rappelle la colonisation.
- Est ce qu'il y aurait un système efficace pour enlever le superflu des plus fortunés afin de venir en aide à celles et ceux en ayant besoin ? Pour moi, oui, mais certainement pas par la technique (que les plus riches ont le moyen de se payer) comme il semble en émettre l'éventualité. D'une manière plus générale, je pense qu'un problème social ne peut se résoudre que par le social, la technique pouvant au mieux faciliter la résolution et au pire amplifier et faire durer le problème.
- Sur la représentation du monde que donne les algorithmes, à vouloir tenter de représenter "le réel", ils contribuent à le reproduire ! Le problème est que ce n'est pas directement assumé, ce qui a tendance à "naturaliser" ce qui est le résultat d'une conjoncture. Ce genre de chose m'incline à penser qu'il y a une misère sociologique chez les scientifiques en "sciences dures", ayant selon moi une bien trop grande tendance à rester scotché à leur époque et se voir renforcer leur biais qui sont confirmés par "le réel" socialement construit et non une expression de "la nature". Cela écrit, il montre finalement par la suite qu'il en a au moins un peu conscience.
- Son fil conducteur revendiqué a été l'assurance et l'intelligence artificielle. Je pense que le second est fallacieux et n'aura pas un grand avenir. Comme il l'a lui-même mis en évidence, il n'y a pas grande intelligence dans ce genre de truc incapable de se remettre en cause. Cela me fait dire que c'est (au moins en l'état) une appellation commerciale et éditorialiste, qui n'a rien à faire dans un énoncé scientifique, à part pour le dénoncer. Sur l'avenir, cela va probablement paraitre plus surprenant, tant cela va contre ce qui est usuellement abondamment proclamé, mais je pense que l'informatique finira au 21ème siècle (!) ou sera du moins fortement réduite pour des tâches au moins essentiellement simples sans interface graphique. J'ai rapidement expliqué mon point de vue à travers un article nommé "Critique écologiste de l'informatique : on ne fait pas que l'utiliser". Un rapide résumé est que c'est pour des raisons énergétiques (Jean-Marc Jancovici) et métalliques (Philippe Bihouix), ainsi que par ce qu'il y a bien plus important que l'informatique (à ce sujet on peut lire le très bon livre "Comment tout peut s'effondrer" de Pablo Servigne et Raphaël Stevens et se renseigner sur la permaculture).
Licence de ce commentaire
Je mets mon commentaire sous plusieurs licences. N'importe laquelle (ainsi que la version si plusieurs sont proposées) peut être choisie pour réutilisation de mon commentaire. J'en propose plusieurs pour maximiser la compatibilité juridique (sans pour autant abandonner le copyleft, traduisible en français par "gauche d'auteur", qui correspond à ShareAlike dans la paramétrisation Creative Commons). Les licences citées autorisent l'utilisation pour tous les usages, la modification, et le partage quelque soit la forme (code HTML, PDF, impression papier, projection, etc.) et le canal (journal, livre, Internet, clé USB, etc.) dont sa nature (centralisé, pair-à-pair, commercial, etc.) que cela soit une version originale ou modifiée. Je suis Nicola Spanti, petit détail mais nécessaire pour l'attribution (c'est la clause BY pour Creative Commons).