Construire une IA éthique et collective, avec Rafael Torres du LICA

Télécharger MP3

==/ Sous-titres générés avec IA (Whisper), editing et proofing par Guglielmo Fernandez Garcia /==
Guglielmo: La bataille des liens fait rage, ça n'est plus aucun doute, et c'est visible sur tous les fronts.

Guglielmo: Économique, politique, information, écologie, il n'y a pas un sujet dans lequel cette innovation technologique n'est fait pas débat.

Guglielmo: Et c'est normal au regard de bouleversements qu'elle provoque.

Alexandre: quels avis avoir sur ces changements ?

Alexandre: Dans Azerty, on a reçu des personnes sceptiques, critiques, mais également des acteurs de cette transformation visible sous nos yeux.

Alexandre: Si l'on tourne autour du sujet depuis un moment, aujourd'hui essayons de poser la question de l'IA face à la science, de la morale, l'éthique.

Alexandre: Est-il possible aujourd'hui de concevoir un IA éthique en connaissant les impacts de cette dernière, d'avoir l'usage de cette technologie en accord avec nos valeurs ?

Alexandre: Et si c'est le cas, comment s'approprier cette innovation de cette façon ?

Guglielmo: Notre découverte du LICA à Marseille est donc tombée à pique.

Guglielmo: Il s'agit d'un laboratoire de recherche action qui met ensemble l'intelligence artificielle et collective, et tout ça pour co-créer des projets qui, en douce sens, pour répondre aux enjeux sociétaux.

Guglielmo: Avons-le, nous avons été assez surpris d'avoir ces deux termes réunis.

Guglielmo: Quel est les rapports entre l'un fait des silissumes et des circuits électroniques, et l'autre fait des cercles des paroles, des réunions et d'animateurs et d'animatrices en chair et os.

Guglielmo: Nous avons alors rencontré Rafael Torres, chef des projets IA éthiques et numériques durables au LICA, pour jeter les bases autour des IA éthiques et de l'intelligence collective.

Intro: Ok, je lance AZERTY.

Alexandre: Alors, le LICA ne se résume pas qu'à une structure d'accompagnement et de formation autour de l'IA.

Alexandre: Bien que ce soit.

Alexandre: Déjà pas mal, cette scope a voulu mettre en place une manière concrète d'observer le résultat de leur travaux, avec un tir lab des transitions.

Alexandre: Un lieu ouvert proposant à chacun de rencontrer des acteurs de la transition, des résidents, d'assister à des programmations scientifiques et culturelles, etc.

Alexandre: Dis comme ça, je commence à être séduit par l'idée.

Alexandre: Mais n'oublions pas qu'au cœur du sujet, on a de l'IA.

Alexandre: Et donc, si évidemment on discute avec Rafael rempli de curiosité, je ne peux pas empêcher d'avoir une certaine méfiance pour être honnête.

Alexandre: Mais allons-y, le lyca prône l'IA éthique, mais qu'entendons-nous par là ?

Rafael: Donc l'intelligence artificielle éthique, c'est l'idée de doter les systèmes d'intelligence artificielle de principe moraux, et donc du coup de pouvoir s'assurer que les IA qu'on utilise, qu'on développe, qu'on conçoit, soient cadrés.

Rafael: Et donc du coup,

Rafael: Ce qu'on va faire nous par exemple dans des accompagnements de façon assez concrète, c'est de travailler avec une structure sur quelles sont les valeurs que cette structure veut défendre, veut valoriser, et donc s'assurer que l'IA va être en adéquation, va être alignée avec ces valeurs-là.

Rafael: Donc, par exemple, si on est une structure dont l'enjeu de sécurité est important, l'enjeu de transparence est important, comment on s'assure qu'une solution d'IA est derrière

Rafael: va être transparente, va ne pas poser de problèmes de sécurité, etc.

Rafael: Et donc réfléchir à l'IA éthique, c'est réfléchir à ce que ces enjeux-là soient vraiment respectés par le comportement de cette solution.

Rafael: Et aujourd'hui, les solutions d'IA sont capables de faire beaucoup de choses, et donc du coup, c'est important de mettre un cadre sur ce qu'elles peuvent et ne peuvent pas faire.

Rafael: Et donc traiter de ce sujet-là, c'est traiter des enjeux éthiques de l'intelligence artificielle.

Guglielmo: Ok, la première pièce d'une IA éthique est donc de s'assurer qu'il y a respecte notre éthique, que qui nous soyons.

Guglielmo: Et en effet, c'est pas une évidence si nous pensons que nombreux produits d'IA nous parviennent déjà faits près à l'emploi.

Guglielmo: Et donc avec l'éthique de quelqu'un d'autre ?

Guglielmo: Mais avant d'entrer dans cette définition, il y a cette histoire d'intelligence collective, ou IC.

Guglielmo: Quel est les rapports entre le collective et l'IA ?

Guglielmo: Pour être honnête, je n'y suis pas un grand expert dans la matière.

Guglielmo: Et, en fait, nous sommes allés demander à Rafael une définition des IC.

Rafael: L'intelligence collective, c'est toutes les méthodes qu'on va pouvoir utiliser pour réussir collectivement à travailler ensemble, à réfléchir de façon collective.

Rafael: Et ça part du postulat que, quand on réfléchit ensemble, selon une certaine méthodologie, on arrive à une forme d'intelligence collective qui est plus importante que la somme.

Rafael: des intelligences individuelles.

Rafael: Et donc du coup, si on arrive à avoir de la pluralité d'opinion, si on arrive à ce que chacun puisse l'exprimer, etc., etc., dans toute une tas de contraintes, on va arriver à produire une réflexion collective qui est particulièrement pertinente.

Rafael: Et donc nous, on forme et on travaille à pouvoir faciliter cette forme de coopération.

Rafael: Nous on utilise donc l'IA et l'IC en parallèle, enfin on mixe les deux.

Rafael: Ce qu'on fait c'est que par exemple dans le cadre de l'intelligence artificielle, pour faire une intelligence artificielle éthique, pour faire une intelligence artificielle qui soit plus juste, on va aller amener de la pluralité de regard l'ordiface de conception pendant le développement, pendant l'utilisation parce que plus on amène par exemple de la diversité,

Rafael: plus on va s'assurer que le résultat va être robuste.

Rafael: On va réduire les biais.

Rafael: Un des gros enjeux dans l'IA, c'est qu'il y a aujourd'hui la pleine de biais parce que les façons qu'on a de les concevoir, de les penser, ça peut souvent provenir d'équipes, d'ingénieurs, d'hommes, d'un certain milieu, etc.

Rafael: etc.

Rafael: qui ont une vision du monde.

Rafael: particulière et donc du coup plus on va aller amener du pluralisme plus cette vision du monde va du coup s'étoffer et plus on va réduire les risques de discrimination etc etc et donc du coup grâce à l'intelligence collective on va pouvoir faire des intelligences artificielles qui vont être moins biaisées plus juste.

Guglielmo: Ah, ça c'est cool.

Guglielmo: Selon Rafael, une partie de problèmes hiéthiques n'est pas d'un sais usage, comme on l'en pense souvent, mais d'un sa conception, dans la façon dont elle est produite, parce que l'heure débiée de points uvugles, etc.

Guglielmo: Or, les premières fois où j'ai assisté à des moments pas contre d'intelligence collective, j'avoue j'ai pas tout de suite capté.

Guglielmo: On fait des brits glaces, des brainstorming, on prend des décisions avec des méthodes qui ne sont pas les votes ou la hiérarchie.

Guglielmo: C'est avec les temps que j'ai compris l'importance de bien cadrer ces moments, ces réunions.

Guglielmo: Mais si on parle de méthodes de production, j'ai pensé des suites au fait que dans une entreprise, il y a des rapports de force, entre salariés et cadres et patrons, etc.

Guglielmo: Du coup, ça n'aurait pas plus des sens de s'étourner plus vers les syndicalismes, qui est vers l'intelligence collective.

Guglielmo: Ou il y a un lien entre les deux au final.

Rafael: On n'est pas dans un monde de bizounours où il n'y a aucun rapport de domination, où tout va bien, en fait la réalité de l'entreprise, d'importe quel collectif, c'est qu'il y a des tensions, c'est qu'il y a des sujets de frottement, de crispation, etc.

Rafael: Et donc du coup la méthode d'intelligence collective sert justement à s'assurer que l'on puisse, c'est ce que je disais tout à l'heure, qu'on puisse avoir de la parole indépendante, libre,

Rafael: Et donc ça, très concrètement, on a des outils pour ça, pour s'assurer effectivement qu'il n'y a pas quelqu'un qui va venir expliquer la vie sur un sujet et monopoliser la parole, etc.

Rafael: Donc du coup, il y a des facilitateurs, des facilitatrices en intelligence collective qui vont aller animer ces temps de discussion pour s'assurer qu'on répartisse bien la parole que chacun puisse s'exprimer avec des déroulés d'ateliers, de réunions pour s'assurer que la parole soit placée au bon endroit, au bon moment, etc.

Rafael: Et après,

Rafael: il y a effectivement dans une structure des enjeux de gouvernance et on du coup, à plus grande échelle que celle d'une réunion, il y a des façons de s'organiser pour aller justement parler avec le CA, parler avec les bénévoles, parler avec les salariés, faire des ateliers où ça se mixe, et en fait on n'est pas tout le temps tous ensemble, tout à la table pour discuter parce qu'il y a ces problématiques là.

Rafael: Et donc l'art de l'intelligence collective c'est justement de trouver les bons déroulés, la bonne suite de déroulés pour que la parole soit au bon moment, au bon endroit, etc.

Alexandre: Voilà alors le postulat de base du LICA.

Alexandre: Faire de l'IA de manière éthique, c'est intégrer le collectif à penser la conception et l'utilisation de cette technologie.

Alexandre: Très bien, c'est très clair.

Alexandre: Pour faire ça bien, on y intègre l'intelligence collective qui, de ce que je comprends, consiste à une mise en place de techniques, de communications et d'échanges pour produire quelque chose d'a priori plus pertinent que ce qu'on aurait pu produire de manière individuelle.

Alexandre: D'accord ?

Alexandre: Mais moi, c'est sur le mot éthique que je disque.

Alexandre: Et justement, c'est là qu'on va commencer à embêter notre invité.

Alexandre: En fait l'éthique c'est un mot particulier, on en fait un peu ce qu'on veut.

Alexandre: Et si on la définit comme la science de la morale, autant dire qu'on n'a pas tous la même morale.

Alexandre: Pour le coup, l'IA c'est une innovation qui pose quand même pas mal de questionnements moraux.

Alexandre: d'un point de vue écologique qui s'acconsomme énormément d'eau et d'énergie.

Alexandre: Côté travail, on peut penser aux conditions de travail, des personnes qui labélisent les données, souvent exploitées.

Alexandre: On peut aussi parler des changements observables sur le monde du travail avec l'automatisation de certaines professions, en témoignant les actions menées par les comédiens de doublage, et comment ne pas parler des impacts sociaux de la désinformation simplifiée par les technologies de génération.

Alexandre: Bref, la liste est longue, et vu comme ça, le tableau est assez noir.

Alexandre: Quand Rafael nous explique que l'accompagnement fait par le Lica est censé entrer en résonance avec leurs clients, qui peuvent être des assauts, des entreprises, des structures qui veulent bien faire, nous on se demande comment ils définissent les limites d'un usage éthique.

Alexandre: Est-ce que c'est un travail conjoint entre le client et le Lica, ou est-ce qu'ils arrivent avec leur boussole morale ?

Rafael: L'éthique, c'est un sujet qui est dynamique, pluriel et collectif.

Rafael: Collectif parce qu'il se définit autour de personnes qui vont se poser sur ce problème-là.

Rafael: Et donc du coup, ça peut être au sein d'un collectif, au sein d'une organisation, sur un territoire, dans un pays, sur un continent, etc.

Rafael: Et donc l'éthique de l'IA, c'est pas la même pour une organisation privée qu'une collectivité.

Rafael: C'est pas la même pour un pays par rapport à un autre, un continent, etc.

Rafael: C'est dynamique parce que les enjeux qu'on traverse, ils changent avec le monde qui évolue.

Rafael: Et c'est pluriel parce que du coup, à chaque fois le résultat du coup de ce cadre agétique là, il va être différent.

Rafael: Donc nous, par rapport à ça, notre position, c'est pas de venir avec c'est ça l'éthique, c'est ça que vous devriez faire.

Rafael: Et on travaille avec chaque organisation sur ces enjeux.

Rafael: et qu'est-ce qu'elle traverse et donc du coup ça suivrait qu'elle ait les bons outils pour adresser ses enjeux.

Rafael: Et par exemple du coup effectivement l'enjeu écologique de l'IA c'est un enjeu qui s'adresse à l'échelle par exemple donc ça peut être à l'échelle d'un continent avec de la réglementation etc etc donc forcément effectivement selon à qui on va s'adresser on va pas avoir les mêmes discussions les mêmes débats mais nous n'arrives pas avec des solutions préconçues là dessus quoi.

Alexandre: Ok, je comprends le point de vue de graduer l'éthique en fonction de sa structure, de sa taille et de ses particularités, disons.

Alexandre: J'imagine que le travail d'intelligence collective est aussi là pour apprendre aux organisations à se questionner et à clarifier leurs valeurs.

Alexandre: Maintenant, j'aimerais savoir comment tout cela se matérialise concrètement.

Alexandre: Et je pense qu'avec un exemple, on y verra plus clair.

Rafael: On a des projets où on fait du conseil, notamment on a travaillé avec Opera qui est une institution européenne qui travaille sur la science ouverte.

Rafael: Aujourd'hui les chercheurs et chercheuses vont utiliser des logiciels d'IA pour faire des traductions, pour traduire leurs articles, pour les faire éditer en anglais parce qu'en général les papiers de recherche ils sont en anglais.

Rafael: Et pareil ils vont les lire en les traduisant depuis l'anglais vers leur langue.

Rafael: Donc l'anglais centralise un peu les différentes langues et on passe par un acteur privé

Rafael: type Google Trad, DeepL, pour cette recherche, pour lire et écrire des articles de recherche.

Rafael: Et donc du coup, cette institution-là se posait la question de dire, il y a un problème de souveraineté, parce que nous n'avons pas forcément envie d'envoyer toute notre propriété intectuelle dans une plateforme privée.

Rafael: et on n'a pas forcément envie de passer systématiquement par l'anglais pour faire ça.

Rafael: Donc eux, ils ont lancé un projet pour étudier ce que ça représenterait de faire un traducteur automatique mais souverain en Europe pour la science ouverte qui inclut les traducteurs, les traductrices.

Rafael: parce qu'en général les traducteurs et traductrices dans les plateformes classiques ne sont pas vraiment réunimérées.

Rafael: Donc il y avait plein d'enjeux et donc ils demandaient qu'est-ce que ça représenterait en termes de projets, donc de phasages, de projets, de budgets, etc.

Rafael: de développer une solution d'IA de traduction multi-langues qui comprennent plein de langues différentes et qui prennent en considération tous ces acteurs de façon juste.

Rafael: Donc nous on a été sollicité là-dessus sur la quatrième et dernière phase qui était

Rafael: Imaginez un peu les fonctionnalités de cette solution-là et le cadrage légal, le budget, la feuille de route, etc.

Rafael: Donc nous on a remis un rapport par rapport à ça.

Guglielmo: J'avoue l'exemple nous a beaucoup aidé à mettre du concret dans cette discussion.

Guglielmo: Du coup, on appelle les LICA avec un projet à un tête, on organise des moments d'intelligence collective, on est autour de la table, on essaie avec leur technique de créer nos lignes guide morales.

Guglielmo: Mais bon, là j'y vois un problème, l'IA est un outil très très technique, ça doit être difficile de l'expliquer facilement même avec l'ICC.

Guglielmo: Et c'est pas un hasard si, pendant nos discussions, il y a un mot qui ressort beaucoup, l'imaginaire, qui s'est créé autour de ces algorithmes.

Guglielmo: Et sur ces sujets, Raphaël utilise deux termes à nos positions.

Guglielmo: L'IA éthique, en la vue, versus l'IA mystique.

Guglielmo: Alors là, j'ai eu vraiment besoin d'explications.

Rafael: Aujourd'hui, il y a un peu une polarisation sur le sujet de l'IA, sur le façon de percevoir l'IA, où il y a des gros acteurs économiques sur ce sujet-là qui veulent pousser un imaginaire de l'IA mystique.

Rafael: Et l'IA mystique, c'est au sens d'une IA magique.

Rafael: On sait pas ce qu'il y a derrière, mais c'est pas important.

Rafael: Ça marche super bien, ça peut répondre à tout, c'est un oracle.

Rafael: Et ça va nous effacer le fait que derrière il y a des externalités, ça a un impact sur les ressources que ça consomme, sur les travailleurs qui sont parfois mal rémunérés, qui travaillent dans des connaissances difficiles, etc.

Rafael: Et ça c'est l'IA Mystique, un peu comme le sujet du cloud quelque part.

Rafael: Et aujourd'hui, donc du coup sur l'IA, on a un peu ce sujet-là, on a un IA mystique, un imaginaire de l'IA mystique qui est poussé en disant, vous ne vous intéressez pas à ça, ça marche super bien, vous demandez à chat d'EPT, il va répondre à tout.

Rafael: Et l'IA etique, c'est un peu justement d'essayer de dévoiler ce imaginaire-là et de dire en fait, non, l'IA mystique, ça n'existe pas, il faut questionner ce qu'il y a derrière.

Rafael: et questionner les enjeux éthiques qu'il y a derrière et poser les bonnes questions.

Rafael: Et aujourd'hui, il y a vraiment sur le... il y a une bataille des imaginaires où on a beaucoup, beaucoup d'efforts par les acteurs économiques qui sont menés pour s'assurer que ça soit le plus lisse possible et qu'on se pose assez peu ces enjeux-là.

Alexandre: En écoutant Rafael sur cette idée d'imaginaire de l'IA mystique, je peux pas m'empêcher de penser à toute l'iconographie autour de l'IA portée par les grands acteurs de la tech.

Alexandre: Quasiment à chaque fois, on y retrouve l'idée de magie.

Alexandre: Sur la suite Google, par exemple, ce sont des petites étoiles féeriques.

Alexandre: Apple et son Apple intelligence optent pour une palette de couleurs un peu fantastiques.

Alexandre: A ce propos, d'ailleurs, le collectif de chercheurs en design, limite numérique, a fait un super travail sur ce sujet.

Alexandre: C'est dispo sur le site et on vous le met en description.

Alexandre: Enfin bref, ce que je comprends, c'est qu'on ne veut pas voir ni comprendre la technique.

Alexandre: On veut seulement s'émerveiller devant ses résultats.

Alexandre: Bon, si le liqa semble prener une certaine transparence à propos des controverses autour de l'IA, comment s'exprime-t-elle ?

Alexandre: J'ai un peu de mal à les imaginer entre guillemets vendre de lia tout en pointant leurs effets négatifs.

Rafael: Déjà, je pense que la première étape par rapport à ça, c'est d'être lucide.

Rafael: En fait, il faut qu'on se le pose de cette discussion-là.

Rafael: Il ne faut pas qu'on invisibilise les travailleurs du clic, l'impact écologique de l'IA sur notre environnement, sur les ressources qu'on a. Donc déjà, la première chose, c'est de rendre visible ça.

Rafael: Nous, on a un gros sujet de formation, de sensibilisation, de parler de ces sujets-là et de les rendre visibles.

Rafael: Nous, dans la façon que nos partenaires, nos acteurs à qui on travaille, vont utiliser LIA, on peut influer sur ces sujets-là.

Rafael: Par rapport à ça, nous, on a un rôle de le rendre visible, pas le mettre sous le tapis, de dire que c'est ça l'empreinte que ça, LIA, sur le monde.

Rafael: Et donc, du coup, après,

Rafael: de dire est-ce que vous avez besoin d'utiliser l'IA pour cet usage-là, et donc de questionner après l'usage.

Rafael: Donc ça c'est vraiment une question de design, c'est une de nos activités dans la conception, de guider dans la conception pour faire ses choix les plus pertinents possibles.

Rafael: Et donc nous là-dedans effectivement, pour parler de l'empreinte écologique, on conseille

Rafael: pour des IA sobres et frugales.

Rafael: Donc sobres, c'est-à-dire, si tu n'as pas besoin d'IA, n'utilises pas d'IA.

Rafael: Aussi simplement que ça.

Rafael: On n'a pas besoin de l'IA pour tout.

Rafael: Et des fois, il y a un peu un phénomène gadget, etc.

Rafael: Donc questionner vraiment ce rapport à ce qu'on a besoin d'un outil aussi énergivore.

Rafael: Et frugal, c'est quand on a besoin d'un outil aussi énergivore,

Rafael: comment on peut réfléchir à optimiser sa consommation.

Rafael: C'est-à-dire est-ce que j'ai besoin de l'utiliser tous les jours auprès de tous les publics, tout le temps, ou est-ce que je peux réduire son usage, réfléchir aux matériaux qui sont utilisés, réfléchir à où sont stockés les données, etc.

Rafael: Donc nous on questionne souvent la proportionnalité et la finalité des solutions à dire.

Alexandre: La vulgarisation, l'accompagnement, je crois qu'on commence à bien comprendre la manière dont Tolica, ils envisagent un usage éthique.

Alexandre: Mais concrètement, ça donne quoi ?

Alexandre: Qu'est-ce qu'ils utilisent ?

Alexandre: Qu'est-ce qu'ils conseillent ?

Alexandre: Où vont-ils chercher les modèles d'IA qu'utilise leur partenaire ?

Alexandre: On sait que presque tous les mois, si c'est pas toutes les semaines, sortent de nouveaux modèles plus performants que les précédents.

Alexandre: Alors, c'est envisageable de faire avec ce qui existe déjà plutôt que toujours attendre le dernier modèle ?

Rafael: Développer par soi-même, ça coûte aussi assez cher.

Rafael: Il faut des équipes de R&D, tous les entreprises n'ont pas la capacité de développer par soi-même.

Rafael: Donc juste pour un enjeu économique déjà, c'est déjà une très bonne solution.

Rafael: Et en plus, effectivement pour des raisons écologiques, c'est évident que de réutiliser et de pas réentraîner des modèles, mais d'utiliser des modèles déjà entraînés, c'est hyper pertinent.

Rafael: Et notamment, il y a Huggingface qui répertorie un peu tous les modèles existants, donc on peut aller piocher là-dedans, etc.

Rafael: Donc ça c'est vraiment aujourd'hui un des bénéfices d'internet et d'avoir autant de choses à disposition et même de la culture un peu de l'open source aussi par rapport à ça.

Rafael: La seule, alors je sais pas si c'est une limite mais en tout cas le point d'interrogation qu'on peut avoir par rapport à ça c'est que

Rafael: parfois on n'a pas toute la transparence sur comment les modèles ont été entraînés, évalués, etc.

Rafael: Donc ça peut aller de vraiment tout est ouvert jusqu'au code, on peut ré-entraîner tout, etc.

Rafael: à des choses assez quand même peu documentées.

Rafael: Et donc quand c'est le cas, il peut y avoir un peu des enjeux éthiques parce qu'on ne sait pas exactement sur quel type de données ça a été entraîné et donc ça peut avoir une finée.

Rafael: des biais de discrimination parce que certaines populations, certaines personnes n'ont pas été présentes dans les bas de données à la base, etc.

Rafael: Il y a quand même un besoin de grandes matières qu'on récupère, d'aller l'évaluer, de creuser un peu ce que c'est.

Rafael: Mais à ceci près sinon, c'est vraiment une super solution technique.

Guglielmo: Mais du coup là, on est en train de dire qu'en gros, la documentation quelque part, tout la philosophie open source fait partie aussi de tout ça.

Guglielmo: Est-ce que les côtés open source, code ouvert, etc.

Guglielmo: n'est pas préalable pour pouvoir développer des technologies éthiques ?

Rafael: On parle souvent dans le lien éthique de l'enjeu de transparence, de rendre transparent le code, etc.

Rafael: Et parfois, on cite l'open source en disant, à partir du moment où c'est open source, c'est transparent et les gens y auront accès.

Rafael: Ce qui est déjà un premier élément de réponse, mais on peut même aller plus loin que ça et demander en fait d'être intelligible, c'est-à-dire de donner du code, mais donner tous les outils et la documentation autour pour comprendre comment ce code a été produit, à quoi il sert, pour qu'on puisse vraiment se l'approprier.

Rafael: Et donc dans le lien éthique,

Rafael: le fait de faire du logiciel qui soit intelligible, qu'on puisse récupérer, c'est un enjeu clé pour s'assurer derrière d'avoir quelque chose qui va être digne de confiance et qui soit juste.

Guglielmo: Bon, ok, donc je commence à capter que Rafael nous dit que parce qu'il n'y a respect d'une éthique, il faut une transparence dans la construction de l'éthique et une transparence dans la démarche.

Guglielmo: Donc l'open data, l'open source, etc.

Guglielmo: Mais c'est assez point de la discussion que je me suis rendu compte d'une chose absurde.

Guglielmo: On dit toujours qu'il y a un algorithme à boîte noire.

Guglielmo: C'est-à-dire que pour constitution, l'IA est obscur dans l'essence où personne ne sait pas vraiment ce qui se passe à l'intérieur.

Guglielmo: Mathématiquement, ça marche, ça produit des résultats, même s'il y a tellement de paramètres qu'il est presque impossible ou difficile d'interpréter comment.

Guglielmo: Bah du coup, comment rendre éthique une algorithme qui, par essence, est indéchiffrable ?

Rafael: Effectivement, donc la transparence se fait à plein endroit différent.

Rafael: Elle se fait dans les processus pour développer un algorithme, dans les algorithmes eux-mêmes et la façon qu'ils ont de fonctionner etc.

Rafael: Et donc, ce que tu parles, c'est l'enjeu un peu de transparence de l'algorithme lui-même, de comment il fonctionne.

Rafael: Et c'est vrai que dans le deep learning,

Rafael: On a cet enjeu là, cette problème là de transparence parce que par conception, par la façon qu'ils ont d'être fait les algorithmes deep learning, la transparence est difficile parce qu'en fait c'est peut-être un tout petit peu technique, mais les algorithmes deep learning, c'est ce qu'on appelle des méta-algorithmes, c'est-à-dire qu'ils vont créer un algorithme, ils vont créer une suite d'instructions.

Rafael: Et c'est cette suite d'instructions qui marche super bien et qu'on va utiliser après, sauf que la suite d'instructions qu'ils produisent sont très peu intelligibles.

Rafael: Et donc du coup un algorithme d'IA,

Rafael: c'est le résultat de ça, c'est toutes ces lignes d'instruction qui ne sont pas très intelligibles.

Rafael: Donc c'est vrai que la solution en elle-même, c'est difficile de la rendre transparence.

Rafael: Maintenant, il y a beaucoup de recherche qui est faite sur ce sujet-là pour travailler là-dessus, etc.

Rafael: Mais de base, la techno fait qu'il y a cette problématique.

Alexandre: Alors profitons du fait que notre invité ne soit pas frileux à l'idée de nous répondre sur les controverses autour de LIA.

Alexandre: Il le dit lui-même une partie de son travail est de conscientiser sur les impacts de cette technologie, mais sortons un peu de l'hypocrisie collective qui entoure la critique de LIA.

Alexandre: Pourquoi je dis ça ?

Alexandre: Alors, loin de moi, l'idée de me faire grand défenseur de cette technologie, mais j'ai l'impression que l'IA a bon dos, comme nous le disais Matilde Sallieu dans une autre interview.

Alexandre: Pas que l'intelligence artificielle ne doive pas être critiquée ni interrogée, mais j'ai le sentiment que s'attarder dessus, c'est ne pas poser la question du reste de nos usages numériques et de leurs impacts environnementaux, de la place du travail dans nos vies, et peut-être même des problèmes structurels qui nous poussent à son utilisation pour toujours plus de gains de productivité et de consommation.

Alexandre: Ça fait beaucoup, alors on partage nos réflexions à Rafael.

Rafael: Je pense que l'IA par la techno que c'est est un peu un catalyseur, parce qu'ils utilisent beaucoup de données, parce que c'est des modèles probabilistes et donc ils renforcent des stéréotypes si on fait pas attention etc.

Rafael: Donc par la techno que c'est peuvent renforcer certaines tendances.

Rafael: Mais effectivement il y a un enjeu qui est plus large et qui est celui du numérique de manière générale, qui est qu'on est dans une société où on a de plus en plus de terminaux, parce qu'on nous vende plus en plus de téléphones portables, d'ordinateurs, de plus en plus de services, d'usages, de gadgets, de capteurs partout.

Rafael: Donc on est en train de produire de manière générale, de plus en plus de données.

Rafael: avec des modèles économiques qui exploitent ces données pour faire des services, etc.

Rafael: Donc de toute façon la tendance du numérique de manière générale, elle est à augmenter cette consommation et non du coup derrière tout l'impact environnemental que ça implique.

Rafael: Ça c'est d'un côté.

Rafael: Et de l'autre je pense qu'il y a un enjeu qui dépasse aussi sur l'IA sur l'aspect éthique, qui est que les enjeux qu'on se pose sur l'IA,

Rafael: sur les questions éthiques, sur les questions du travail, sur les questions écologiques, sur les questions sociales et tout ça, c'est des questions qui sont des questions inérentes aussi à notre société, que l'IA va cristalliser, mais par exemple l'avenir du travail, l'IA vient mettre le doigt sur quelque chose d'assez douloureux et compliqué, mais qui est une question qu'on devrait se poser, quoi qu'il arrive.

Rafael: Même s'il n'y avait pas l'IA aujourd'hui, le monde du travail est en train de changer drastiquement, il y a en train d'accélérer ça sur les enjeux de compétitivité, de valorisation des compétences, etc.

Rafael: Un train d'accélérer ce phénomène-là, mais la question, elle est quand même là d'un point de vue sociétal et on devrait en parler, même s'il n'y avait pas l'IA donc quelque part, c'est même presque intéressant que l'IA soit là pour ça parce qu'elle vient mettre le doigt sur des choses qui créent du débat public.

Intro: AZERTY

Guglielmo: Et n'écoutant Rafael, j'ai réalisé que, au fait, on parle autant d'IA en ces moments, parce que c'est les nouveaux utiles, les nouveaux gadgets, comme on disait, elles rendent d'un autre quotidien, mais aussi pour une autre raison.

Guglielmo: Et n'étant les produits ultimes de ce que certains appellent les technocapitalismes, l'IA cristallise beaucoup de sujets des fonds de numérique de notre société.

Guglielmo: Et du coup, c'est l'art de l'intérêt, pas que dans l'outil un de soi.

Guglielmo: Il faut dire que les sujets des mettre des règles à l'IA et donc au numérique, aident à l'ordre de jour, surtout à l'Europe.

Guglielmo: Et vu que Rafael semble avoir les idées pas mal claires, en tente de lui demander si c'est le louis, on devrait interdire l'IA mystique ou non-éthique.

Guglielmo: Au moins pour quelles usages c'est le louis, on devrait l'interdire.

Rafael: Tout à fait, ah mais plein, c'est un peu ce que fait l'IA Act, donc la réglementation européenne qui va évaluer pour chaque solution d'IA son niveau de criticité en fonction de l'usage.

Rafael: Et donc du coup aujourd'hui, il y a déjà des cas d'usage qui sont considérés critiques, donc interdits, après avec des exceptions, etc.

Rafael: Mais c'est ça la logique, la logique c'est il y a des usages qui sont sans aucune contrainte parce que considérés non dangereuses et par palier jusqu'à des solutions d'IA qui sont totalement

Rafael: considérer interdit.

Rafael: Aujourd'hui, la reconnaissance faciale dans l'espace public pour des acteurs privés, c'est interdit, on n'a pas le droit de le faire.

Rafael: Il y a un gros débat aujourd'hui sur le faire dans l'espace public par des institutions, il y a Amnesty International qui fait une campagne de prévention là-dessus parce que ça pose des vrais enjeux démocratiques.

Rafael: Un exemple de ce qui devrait être interdit, c'est par exemple ce qu'on a déjà vu en Chine avec les crédits sociaux, c'est-à-dire de analyser des comportements, de faire du profiting, donc aller regarder ce que tu fais en fonction de quitter.

Rafael: Et derrière ça, t'associer une note ou te pénaliser ou te mettre une amende, donc par exemple la Chine le faisait pour dans l'espace public dire en fait si tu respectes pas les règles en vigueur, du coup on va t'enlever des crédits.

Rafael: Donc ça c'est vraiment une atteinte à la liberté individuelle, à la liberté collective, ça devrait être interdit.

Guglielmo: Bon, le tableau de l'IA est noir et il peut sembler un peu glaçant, mais on pourrait se faire tomter par une idée du coup, jeter cette technologie par la fenêtre.

Guglielmo: Avant de faire cela, selon nous, il faut évaluer s'il n'y a pas aussi des usages bénéfiques de l'IA.

Guglielmo: Voyons la vie des Rafael s'il y a quelque chose de bon à un tirer de cette technologie.

Rafael: Je pense qu'il y a une bataille des imaginaires aujourd'hui.

Rafael: Je pense que, et plus largement que l'il y a, il y a une bataille des imaginaires sur la transition socio-écologique, la transition écologique en particulier.

Rafael: C'est-à-dire qu'aujourd'hui, pourquoi alors qu'on a tous les rapports d'EJ avec tous les informations, etc., on n'arrive pas à transitionner sur ce sujet de l'écologie ?

Rafael: C'est parce qu'en termes de récit,

Rafael: On n'arrive pas à se projeter et à voir quelque chose qui nous fasse envie et un futur souhaitable dans lequel on a envie d'aller.

Rafael: Et en général, les futurs qu'on nous propose sur ces sujets de la transition écologique, c'est de la dystopie, c'est de l'effondrement, etc.

Rafael: Et on a du mal à se projeter vers un futur souhaitable hors.

Rafael: avoir un récit qui nous motive c'est le fondement de la mise en mouvement.

Rafael: Pour moi je pense que vraiment sur ce sujet des imaginaires on a un enjeu à donner à voir un futur dans lequel on a envie d'aller changer les imaginaires et donc du coup

Rafael: Je pense que l'IA, il y a un boulevard pour ça parce que l'IA, en particulier aujourd'hui l'IA générative, a cette capacité de générer du contenu, des images, des vidéos, du texte et donc par définition des récits.

Rafael: Et on peut avoir un super outil pour générer de nouveaux récits qui nous donnent des futures dans lesquels on a envie de se mettre en mouvement et dans lesquels on a envie d'aller.

Rafael: Du coup, utilisez l'IA pour créer quelque chose rapidement, facilement, qui soit quelque chose qu'on n'a pas l'habitude de voir et qui nous donne envie, on est ok, là on veut aller là.

Rafael: Je pense que c'est un sacré levier pour ça.

Guglielmo: Cet terme des batailles de l'imaginaire m'est fait immédiatement poncer à un artiste très particulier.

Guglielmo: Seumboy vrainom :€.

Guglielmo: Qui est peut-être vous connaissait grâce à un média qui l'a cofondé

Guglielmo: Histoire crépues.

Guglielmo: La spécialité de Seumboy ?

Guglielmo: Utiliser l'IA générative pour combler les vides des images qui n'ont jamais été créées ou transmises, comme celle de popes colonisées.

Guglielmo: Créer une nouvelle iconographie et une mémoire décoloniale grâce à l'IA.

Guglielmo: Bon, nous vous recommandons dé jetter un coup d'œil à son Instagram.

Guglielmo: Ça mérite vraiment.

Alexandre: Dans AZERTY, on a reçu des personnes qui critiquent, conçoivent des systèmes d'IA ou les interroges.

Alexandre: Mais une chose est sûre, c'est qu'au regard de l'évolution du monde, on n'a pas fini d'entendre parler de cette technologie, ni de voir les petits éclats de magie mystique sur nos interfaces.

Alexandre: Dans ce monde où usage technologique rime très souvent avec exploitation des individus de la planète, comment faire avec ?

Alexandre: Est-ce qu'il existe une sorte de consommation éthique de l'IA pour nous, utilisateurs du quotidien ?

Rafael: Sur l'IA, ça dépend à quel point tu te sens impacté par ces sujets-là et t'as envie d'être acteur ou actrice de ces sujets-là.

Rafael: Et c'est pas moi ni même le LICA qui vont te dire où mettre le curseur.

Rafael: Par contre, des bonnes pratiques et avoir un peu des réflexes en tant que citoyen et citoyenne, c'est toujours une bonne chose.

Rafael: Et moi ce que j'aime bien avoir dans un coin de la tête par rapport à ce qu'on disait de tout à l'heure sur un peu l'IA mystique et le côté où on voit pas derrière ce capot,

Rafael: C'est de se dire simplement que c'est pas une solution qui est gadget, c'est une solution qui a un impact et donc du coup si je m'en sers c'est selon mon critère à moi parce que c'est important, parce que c'est utile etc.

Rafael: Et donc d'enlever de sa pratique le côté vraiment gratuit, je l'utilise parce que c'est rigolo et d'avoir un peu de musclé ce réflexe là, de poser un peu la question sur son usage

Rafael: est-ce que ce que je suis en train de faire c'est utile, ça sert à quelque chose où je suis juste un train de bidouiller, de m'amuser et aujourd'hui je pense qu'il faut collectivement on arrive à avoir ce regard critique là et de se dire peut-être au vu de ce que ça coûte dans notre monde on devrait peut-être pas l'utiliser pour faire des blagues à longueur de journée voilà après effectivement le dire c'est pas de faire du moralisme et de dire que chacun qu'est-ce qu'il devrait faire ou pas faire

Rafael: Mais d'avoir ce réflexe-là et après d'être chacun juge de ça et de décider, je pense c'est important.

Alexandre: Merci à Rafael Torres du Lica pour avoir accepté de répondre à nos questions.

Alexandre: Pour en savoir plus sur ce que propose le Lica et le Tier Lab des transitions, on vous invite à aller découvrir leurs sites Lica-Europe.org et leur Instagram, at Lica.Europe.

Alexandre: Dans cette émission, on a aussi cité quelques sources que vous retrouverez en description du podcast.

Alexandre: Comme d'habitude, si cet épisode vous a plu, que vous nous écoutiez en podcast ou sur Radio Grenouille, on vous invite à découvrir les précédentes émissions disponibles dans vos applications de podcast.

Alexandre: N'hésitez pas non plus à commenter et à nous laisser des étoiles.

Alexandre: À bientôt !
==/ Sous-titres générés avec IA (Whisper), editing et proofing par Guglielmo Fernandez Garcia /==

Créateurs et invités

Alexandre Allain
Hôte
Alexandre Allain
Développeur Front-End, j'explore la société numérique en podcast et à la radio depuis 2017.
 Guglielmo Fernandez Garcia
Hôte
Guglielmo Fernandez Garcia
Je bricole des IA, mais j'aime aussi la vulga et les sciences sociales
Construire une IA éthique et collective, avec Rafael Torres du LICA
Diffusé par