intelligence artificielle – Alma & Georges /alma-georges Le magazine web de l'Université de Fribourg Wed, 20 Nov 2024 16:24:16 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.3.5 Université: ChatGPT chamboule les méthodes d’évaluation /alma-georges/articles/2024/universite-chatgpt-chamboule-les-methodes-devaluation /alma-georges/articles/2024/universite-chatgpt-chamboule-les-methodes-devaluation#comments Mon, 11 Nov 2024 13:43:47 +0000 /alma-georges?p=21248 Comment juger de la qualité, et surtout de l’authenticité, de travaux écrits rédigés tout ou partie avec l’aide de l’intelligence artificielle? C’est la grande question que se pose le corps enseignant, confronté à l’irruption massive des intelligences génératives textuelles dans le monde académique. Prise de température auprès de trois professeur·e·s issu·e·s de trois facultés différentes.

«Il est évident que nombre de mes étudiant·e·s recourent à ChatGPT ou à d’autres formes d’intelligence artificielle (IA) pour les travaux de séminaires». Tel est le constat péremptoire d’Elisabeth Dutton, professeure d’anglais médiévale à l’Université de Fribourg. Plusieurs indices l’ont mise sur la piste, tout d’abord la disparition de certaines fautes de grammaire qu’elle avait l’habitude de déceler dans les textes; ensuite, une certaine sophistication des modes d’expression.

Il y a toutefois une contrepartie à ces textes en apparence mieux rédigés: trop souvent, ils prennent des airs de patchworks… cousus de fil blanc. «J’ai remarqué que les étudiant·e·s créent des assemblages à partir de textes fournis par les intelligences génératives. Le tout manque de liant et les transitions s’avèrent parfois dénuées de sens.»

Pascal Pichonnaz, professeur de droit privé et de droit romain, dresse le même constat: «Nous avons très vite décelé l’usage d’IA dans les lettres de motivation pour les départs Erasmus, leur qualité s’étant sensiblement améliorée. Nous contrebalançons cela par un entretien oral, ce qui réfrène sans doute les velléités d’en abuser.»

Quant à la physique, là où les formules prennent le pas sur le texte, elle ne semble pas non plus échapper au phénomène. «J’ai remarqué que les chapitres d’introduction sont de plus en plus formatés, standardisés, ce qui trahit l’usage d’une IA», explique Baptiste Hildebrand, lecteur au Département de physique, avant d’ajouter ne pas «forcément trouver cela problématique puisque là n’est pas l’essentiel.»

L’IA écartelée entre Shakespeare et la relativité restreinte
Cela dit, l’intelligence artificielle reste encore relativement démunie face aux exigences de ces trois disciplines. «Même pour un exercice de physique de base de première année, ChatGPT ne donne pas toujours la bonne solution, s’amuse Baptiste Hildebrand. Et dans notre discipline où il y a des paradoxes étonnants, l’IA s’avère peu fiable.»

Ces outils modernes, basés sur le traitement de vaste quantité de données, se retrouvent même totalement superflus face aux textes écrits en anglais médiéval. «Mes étudiant·e·s doivent commenter certaines phrases d’un point de vue philologique ou étymologique, explique Elisabeth Dutton. Pour une telle demande, ChatGPT ne leur est d’aucune aide, du moins pour le moment.»

Pascal Pichonnaz, Professeur de droit privé et de droit romain

Les étudiant·e·s en droit, de leur côté, doivent rendre au moins un travail d’une trentaine de pages chaque année. «Par leur nature même, ces travaux écrits  exigent la citation de nombreuses sources et requièrent impérativement d’avoir les bonnes références, ce qui rend difficile le recours à l’intelligence génératives», constate Pascal Pichonnaz.

Un outil formidable malgré tout
Celui qui préside également l’Institut de droit européen voit toutefois un avantage à ces nouveaux outils qu’il considère comme «un sparring-partner permettant d’avoir des idées, de générer une structure ou d’améliorer la qualité de la langue».

Peut-être le plus optimiste de nos trois professeur·e·s, Baptiste Hildebrand estime qu’une publication en physique consiste en résultats de recherches, en analyse de données, obtenues après des mois de travail en laboratoire ou de manière théorique. «L’IA, elle, va permettre de gagner du temps pour la rédaction du texte, qui n’est pas l’aspect le plus important comme je l’ai déjà mentionné.» Et de conclure: «Cela prenait plus de temps, mais il existait déjà des moyens d’améliorer son texte par des moyens externes».

Interdiction peu réaliste
Dans les disciplines où le texte joue un rôle plus prépondérant qu’en physique, faut-il dès lors revoir la pondération des examens et, ainsi que l’a suggéré un enseignant sous couvert d’anonymat, songer à donner plus de poids aux épreuves orales par rapport aux écrits? Nos trois professeur·e·s n’y songent pas encore, dans leur discipline respective les examens écrits se déroulant encore de manière «analogique», hors connexion internet et de manière manuscrite.

Il en va en revanche autrement en ce qui concerne les travaux de séminaire, dont certains peuvent être rédigés à la maison, hors de tout contrôle. Dans ce cas, Pascal Pichonnaz exige de ses étudiant·e·s qu’elles et ils déclarent tout recours à une IA et décrivent à quelles fins. «Est-ce pour améliorer le texte, pour une traduction, pour rechercher des idées? L’aspect central: c’est la transparence! Si on utilise l’IA, on doit le dire et préciser de quelle façon on y a eu recours. C’est d’ailleurs conforme à l’AI Act, la réglementation européenne.»

Démarche similaire du côté de plusieurs professeur·e·s du Département d’anglais où une interdiction ne semble pas judicieuse, ne serait-ce qu’en raison de la difficulté de la mettre en œuvre. «Et pour être honnête, concède Elisabeth Dutton, nous recourons tous les jours à l’intelligence artificielle. C’est juste le copié-collé qui pose problème.» Depuis peu, la professeure d’anglais médiéval demande à ses étudiant·e·s de décrire, en quelques phrases, dans quelle mesure l’IA les a aidés et les problèmes éventuels que cela a posé. Le but? «Je voudrais qu’ils soient auto-critiques envers leur pratique.»

En physique, comme on l’a vu, les avantages que procurent l’IA semblent d’avantage contrecarrés par la nature même des exigences de la discipline. «Un travail de master représente 9 mois dans un groupe de recherche, soit théorique, soit expérimental, explique Baptiste Hildebrand. L’étudiant·e doit y effectuer toute une série de mesures et de calculs dont les IA ne sont pas capables. Elles peuvent donner un coup de main bienvenu pour les tâches de programmation, mais la compréhension du sujet reste essentielle. En ce sens, une interdiction des IA ne me semble pas pertinente.»

Baptiste Hildebrand, Lecteur au Département de physique

On n’arrête pas la technologie
Nos trois professeur·e·s se montrent pour l’heure peu enclins à légiférer, d’autant plus que la technologie avance à un rythme que nul ne peut suivre. Ils reconnaissent tous les trois que les IA provoqueront sans doute des pertes de compétences, par exemple dans la capacité à structurer sa pensée. «Il en est allé de même avec l’apparition de la calculatrice, illustre Baptiste Hildebrand, et personne ne songerait à retourner à l’époque des bouliers-compteurs!» Pour Pascal Pichonnaz, une interdiction serait d’autant plus inappropriée que l’IA va faire partie du quotidien professionnel de chacun·e: «Certains pays, dont la Chine, utilisent des algorithmes en guise d’aide à la décision, voire pour se substituer aux juges. Notre défi, à l’Université, c’est de continuer à donner ces compétences de base aux juristes qui leur permettront de pouvoir interpréter, comprendre, critiquer la solution qu’ils reçoivent.»

«On pourrait souhaiter que cela n’existe pas, conclut presque fataliste Elisabeth Dutton, mais la technologie est là et il faut trouver une manière de l’utiliser d’une manière intelligente. La manière de penser, la structuration des idées restent et resteront des compétences fondamentales.»

Bon à savoir: L’AI à l’Uni

Quant aux principes généraux, ils sont de même nature que ceux évoqués par les trois professeur·e·s:

  • respecter des normes rigoureuses de citation
  • assurer une transparence quant à l’utilisation de l’IA générative. (Ceci inclut la citation précise des sources générées et des prompts utilisés)

L’Université, à l’instar d’autres institutions académiques suisses, préconise également :

  • la conception d’examens limitant l’aide apportée par l’IA
  • l’évaluation des capacités d’analyse et de critique des étudiant·e·s envers l’IA
  • des ajustements dans les politiques anti-fraude
  • des formations continues dans le cadre du projet DigitalSkills@Fribourg et via l’offre de formations du service DIDANUM

> Principes généraux et recommandations pour l’utilisation des IA génératives

_______

]]>
/alma-georges/articles/2024/universite-chatgpt-chamboule-les-methodes-devaluation/feed 5
«Man kann nicht gefunden werden, wenn man sich nicht verirrt hat» /alma-georges/articles/2024/man-kann-nicht-gefunden-werden-wenn-man-sich-nicht-verirrt-hat /alma-georges/articles/2024/man-kann-nicht-gefunden-werden-wenn-man-sich-nicht-verirrt-hat#respond Wed, 25 Sep 2024 14:41:13 +0000 /alma-georges?p=21028 Im Rahmen des XII. Kongresses der Deutschen Gesellschaft für Ästhetik, der vom 9. bis 12. September 2024 an der Unifr stattfand, hatten wir das Vergnügen, mit dem einflussreichen Philosophen Alva Noë von der University of California, Berkeley in Kontakt zu treten. In unserem Interview beleuchtet Noë nicht nur die Herausforderungen, die Künstliche Intelligenz für unser kreatives Verständnis mit sich bringt, sondern regt auch zur Reflexion über die Rolle von Wut in der menschlichen Existenz und der Beziehung zu Maschinen.

Wie würden Sie die philosophischen Fragen, mit denen Sie sich in Ihrer täglichen Arbeit beschäftigen, kurz beschreiben?
Ich bin Philosoph und befasse mich mit Themen wie Wahrnehmung, Bewusstsein, Kunst und dem Wesen der Philosophie. In meinem neuesten Werk, einem Buch mit dem Titel The Entanglement, versuche ich, unser Verständnis von Ästhetik zu verändern, um zu verdeutlichen, wie Kunst, ästhetische Erfahrung und Philosophie untrennbar mit dem menschlichen Leben verbunden sind. Nach meinem Verständnis sind Kunst und Philosophie grundlegende und sogar urtümliche Aspekte der menschlichen Existenz. Derzeit arbeite ich an drei neuen Projekten: eines über Liebe, ein weiteres über Perspektiven und antiperspektivische Bewegungen in der Renaissancemalerei und deren Einfluss auf unser heutiges Denken über Wahrnehmung und Bewusstsein, sowie ein Projekt über Künstliche Intelligenz.

Ihr Vortrag auf dem Kongress trägt den Titel Rage Against the Machine. Entanglement, substitution, resistance (dt. Wut gegen die Maschine, Verschränkung, Substitution, Widerstand). Was steckt hinter dieser Kombination von Begriffen, und warum sind diese Ideen heute besonders wichtig?
Diese Themen sind heikel, und ich werde mich kurz fassen. Die gegenwärtige Faszination für Maschinengehirne wird meiner Meinung nach von falschen und sogar gefährlichen Annahmen über das, was wir meinen, wenn wir sagen, dass Menschen einen Verstand haben, getrieben. Wir sind Wesen, die sich stören lassen, und in unserem besten Zustand – wenn wir sprechen, denken, spielen und etwas erreichen – meistern wir das allgegenwärtige, lebendige Risiko der Störung. Ingenieur_innen gehen davon aus, dass wir geschickt sind, was für sie bedeutet, dass wir die Regeln verkörpern und sie fliessend anwenden. Doch nichts könnte weiter von der Wahrheit entfernt sein. Unsere Geschicklichkeit ist eng verbunden mit unserem Widerstand gegen die Art und Weise, wie wir uns verhalten sollen. Deshalb spielen wir Menschen nicht nur Spiele – wir erfinden sie. Wir verwenden Sprache nicht nur; wir kreieren sie ständig, während wir sie nutzen. KI-„Köpfe“ sind Parasiten, die lediglich einen einseitigen Aspekt dessen erforschen, was es bedeutet, aktiv, involviert und handlungsfähig zu sein. Wut gegen die Zwänge von Gewohnheiten, Technologie, Kultur und Geschicklichkeit ist ein wesentliches Element des menschlichen, vielleicht sogar tierischen Bewusstseins. Dies ist der erste Sinn, in dem ich die Idee der Wut anspreche. Computer betrachten uns als Regelbefolger_innen, die dem reibungslosen Weg der Berechnung folgen. Doch wir sind die Schöpfer von Regeln, und jede Regel lädt zu einem Streit ein. Darüber hinaus verwende ich „Wut“ auch im Sinne einer zweiten Dimension: Ingenieure haben keine bewussten Maschinen geschaffen, aber sie haben unsere Welt energisch verändert, um sie für ihre leistungsstarken Technologien geeignet zu machen. Ein gewisses Mass an Wut über die Art und Weise, wie sich diese neuen Organisationssysteme ausbreiten, ist gerechtfertigt.

Alva Noë mit seinem Werk «The Entanglement: How Art and Philosophy Make Us What We Are»

Technologie ist heute allgegenwärtig. Wie können Ihre philosophischen Ideen uns helfen, unsere Beziehung zu Maschinen und Technologie besser zu verstehen?
Jedes Werkzeug – vom Bleistift über den Schuh und das Auto bis hin zum Smartphone – ist ein Ort von Gewohnheiten und Organisation. Ein Werkzeug oder eine Technologie zu beherrschen, bedeutet, dass sie uns organisiert. Natürlich werden Werkzeuge nicht entwickelt, um bereits bestehende Probleme zu lösen. Neue Werkzeuge und Technologien eröffnen neue Lösungen für neue Probleme, und die Geschichte der Technologie ist in der Tat die Geschichte unserer körperlichen, sozialen und kognitiven Organisation. Richtig verstanden, sollte uns dies zu der Erkenntnis führen, dass Menschen nicht einfach freie Akteur_innen sind, sondern an komplexe, verteilte Organisationssysteme gekoppelt sind, die unser Handeln beeinflussen. In diesem Sinne können wir sagen, dass Werkzeuge, Technologien und Gewohnheitssysteme durch uns zum Ausdruck kommen oder in uns handeln, was uns zu einer Sichtweise führen könnte, die mit dem herkömmlichen anthropomorphen Modell bricht.

Aus dieser Perspektive sind alle Technologien – und nicht nur die modernen oder digitalen – an einer Art verteilter Handlungsfähigkeit beteiligt. Wir sind durch unsere intensive Auseinandersetzung mit und Teilnahme an Technologien, weit gefasst, tatsächlich geprägt und geformt.

Aber es gibt eine entscheidende Asymmetrie zwischen Mensch und Maschine. Wir stellen Maschinen her, und diese Technologien organisieren uns. Doch wir, die lebenden Wesen, widersetzen uns dieser Organisation. Ich habe mich nicht dafür entschieden, auf diese Weise organisiert zu sein, und ich widersetze mich dieser Art der Organisation. Ich fühle mich in dieser Situation verloren oder gefangen. Ich versuche, mich selbst zu finden und mich neu zu orientieren. Ich widersetze mich den Gewohnheiten, der Technologie und der Kultur, die uns dominieren. Indem ich dies tue, arbeite ich daran, mich neu zu organisieren und mich von den Wegen zu befreien, auf denen ich mich gefangen fühle. Das ist das Kunstwerk. Das ist die Arbeit der Philosophie.

Keine Maschine sagt Nein. Keine Maschine geht verloren. Keine Maschine muss gefunden werden. Keine Maschine sucht nach Erleichterung, Befreiung oder Emanzipation.

Haben Sie irgendwelche Ängste? Sollten wir uns vor KI fürchten?
Wenn wir von „KI“ sprechen und damit maschinelle Intelligenz meinen, dann existiert sie nicht und wird auch niemals existieren. Im schlimmsten Fall handelt es sich um Lügen und Propaganda, im besten Fall um eine Fantasie. Die eigentliche Gefahr besteht darin, dass wir weiterhin ein falsches und oberflächliches Bild davon haben, wer und was wir sind.

Wenn „KI“ jedoch die gegenwärtig existierenden Technologien wie grosse Sprachmodelle (LLMs), künstliche neuronale Netze und „Deep Learning“-Systeme bezeichnet, dann ist KI tatsächlich real, und sie bringt sowohl Gefahren als auch, wie ich vermute, Chancen mit sich. Hier bestehen immense Risiken in Bezug auf Kriegsführung, Überwachungskapitalismus (wie von Zuboff beschrieben), Deep Fakes, intellektuellen Diebstahl, den Zusammenbruch des politischen Diskurses und sogar in Bezug auf das Klima.

Was mir jedoch am meisten Angst macht, ist die Vorstellung, dass Menschen, insbesondere junge Menschen, aufhören könnten zu schreiben, zu komponieren und sich dem zu widersetzen, was im Grunde genommen Technologien der Kontrolle sind.

Der Kongress, auf dem Sie gesprochen haben, bringt Expert_innen aus verschiedenen Bereichen zusammen. Wie sehen Sie diesen Austausch und was nehmen Sie persönlich von der Konferenz mit?
Es war mir eine Freude, Wissenschaftler_innen mit unterschiedlichen Hintergründen zu treffen. Ich fühle mich in interdisziplinären Umgebungen sehr wohl und bin dankbar für die Einladung.

Vielen jungen Menschen, insbesondere Studierenden, fällt es schwer, sich mit Philosophie zu beschäftigen. Welchen Rat würden Sie denjenigen geben, die sich für Themen wie Bewusstsein und Technologie interessieren, aber nicht wissen, wo sie anfangen sollen?
Vertrauen Sie Ihrer eigenen Verwirrung. Denken Sie daran, dass niemand alle Antworten hat. Was ein Problem philosophisch macht, ist die Tatsache, dass es sich uns ohne klare Methoden oder Lösungsstandards präsentiert. Die Aufgabe der Philosophie besteht darin, das Problem zu nähren und Wege zu finden, damit umzugehen. Dies ist ein persönliches Problem – Ihres und nur Ihres. Ein philosophischer Text sollte nicht als Behälter voller Einsichten betrachtet werden, sondern als Partitur, die Sie selbst spielen, mitspielen, improvisieren oder ablehnen können, wenn sie für Sie bedeutungslos oder langweilig erscheint.

Sie werden etwas aus Ihrem Philosophiestudium mitnehmen, wenn Sie viel von sich selbst in die Philosophie einbringen. In dieser Hinsicht ist Philosophie wie Kung-Fu: Es ist kein Zuschauersport, sondern ein Vollkontakt-Sport, der Engagement erfordert.

Ein letzter Ratschlag: Gute philosophische Texte – ähnlich wie gute Kunstwerke – übersteigen das, was man im Voraus verstehen kann. Sie gehen immer darüber hinaus. Überlegen Sie, was das bedeutet. Es heisst, dass man sie nicht einfach verstehen kann – nicht auf eine direkte Weise. Es erfordert die Bereitschaft, das Nicht-Verstehen zu tolerieren und die Arbeit zu leisten, um Verständnis zu schaffen, auch wenn man nicht versteht. Das kann unangenehm und herausfordernd sein. Vielleicht ist es nicht für jede_n etwas. Aber es ist der Schlüssel. Man kann etwas finden, wenn man nicht sucht. Man kann nicht gefunden werden, wenn man sich nicht verirrt hat.

_____

]]>
/alma-georges/articles/2024/man-kann-nicht-gefunden-werden-wenn-man-sich-nicht-verirrt-hat/feed 0
Regards croisés sur l’intelligence artificielle /alma-georges/articles/2023/regards-croises-sur-lintelligence-artificielle /alma-georges/articles/2023/regards-croises-sur-lintelligence-artificielle#respond Mon, 19 Jun 2023 11:30:02 +0000 /alma-georges?p=18352 L’intelligence artificielle va-t-elle rendre l’humain superflu? Est-elle une opportunité ou une malédiction? Dans le cadre du workshop interdisciplinaire Quali+, Franck Missonnier-Piera (sciences économiques), Michel Heinzmann (droit), Ivo Wallimann-Helmer (humanités environnementales) et Gianfranco Soldati (philosophie) ont soumis cette révolution technologique, et peut-être sociétale, au crible de leurs algorithmes respectifs.
Parce que trop disruptive, l’intelligence artificielle (IA) requiert-elle l’adoption d’un moratoire sur son développement? Si rien n’est fait, risque-t-on de se retrouver toutes et tous au chômage, de surcroît dans un monde submergé de fausses informations? Les promesses et les menaces de l’intelligence artificielles sont telles qu’il est difficile de préjuger de l’avenir qu’elle nous réserve. Afin d’y voir plus clair, le traditionnel workshop de la filière Quali+, cuvée 2023, propose de scruter l’IA selon quatre perspectives et d’en dresser un premier bilan. Morceaux choisis par une intelligence limitée, mais 100% naturelle.

Frank Missonnier-Piera

Point de vue de l’économiste
Pour Frank Missonnier-Piera, il est incontestable que l’IA affecte déjà la vie des entreprises: «Elle permet d’agréger très rapidement une masse considérable de données comptables pour savoir, par exemple, quels biens ou quels services il faudrait fournir en priorité aux client·e·s. Du côté des fournisseurs·euses, l’IA peut aider à mieux gérer le stockage des marchandises de sorte à éviter des ruptures de flux.» Selon le titulaire de la Chaire Comptabilité et Analyse financière, l’IA va en particulier impacter les métiers comptables, en facilitant notamment la préparation des états financiers de l’entreprise. «Un logiciel peut non seulement aider à repérer des erreurs ou des anomalies, par exemple une facture erronée, mais aussi aider à se conformer à des normes complexes, environnementales ou juridiques, qui varient d’un pays à l’autre.»
Au niveau micro-économiques, l’IA permet donc de dégager du temps et des ressources pour des activités à forte valeur ajoutée. En revanche, elle représente un risque majeur au niveau financier car, en anticipant les tendances de marché, les algorithmes peuvent générer des effets boule de neige catastrophiques. «Si tous les agent·e·s économiques vendent en même temps, alertés par l’IA d’une tendance baissière imminente, les cours peuvent chuter de manière précipitée et provoquer un crash éclair. Il faut donc maîtriser ces outils!»

Michel Heinzmann

Michel Heinzmann

Point de vue du juriste
Rebondissant autant sur les propos de Frank Missonnier-Piera que sur l’actualité, Michel Heinzmann, titulaire de la Chaire de procédure civile, entame sa présentation en se demandant si, dans le fond, le crash du Crédit suisse ne serait pas lui-même dû à un algorithme. «L’impact juridique a été immédiat, poursuit-il, puisque le week-end même le Conseil fédéral produisait une ordonnance forçant UBS à racheter le Crédit suisse». Pour Michel Heinzmann, les spécialistes du droit disposent déjà d’une certaine forme d’IA, bien qu’encore rudimentaire. «Des moteurs de recherche nous permettent, par exemple, d’avoir accès aux arrêts du Tribunal fédéral, la plus haute instance juridique du pays. Cela facilite l’accès aux données avec, revers de la médaille, le risque de se voir noyé·e sous un flot d’informations.» A cela s’ajoute, selon lui, le risque d’atteintes à la personnalité. «En croisant les données, l’IA pourrait permettre de lever le secret et désanonymiser les données. Cela requiert une règlementation !» D’aucun·e·s craignent également un ralentissement de l’évolution du droit et sa déconnexion de l’évolution sociétale, puisque l’IA se nourrit d’un corpus de données existantes. Les mêmes causes produisant les mêmes effets, il est à craindre que l’IA n’affecte la justice prédictive. «On peut imaginer que les personnes appartenant à des minorités ethniques, les plus représentées dans le monde carcéral, soient victimes de biais reproduits par l’AI». Et Michel Heinzmann de conclure, avec des accents missonniens, que «l’IA va nous aider à libérer des ressources en automatisant les tâches simples, mais elle ne remplacera jamais l’humain dans l’exercice de la justice».

Ivo Wallimann-Helmer

Point de vue de l’éthicien
Avec plusieurs collègues, Ivo Wallimann-Helmer, professeur au Département des géosciences, a développé un modèle servant à évaluer la durabilité des algorithmes. «Nous en sommes encore aux balbutiements, admet-il, mais notre but serait, par exemple, de pouvoir évaluer la durabilité économique et sociale des algorithmes utilisés par une banque.» Selon lui, il convient en effet de définir un cadre permettant une numérisation de la société qui soit à la fois durable et éthique. Pour y parvenir, il faudrait s’accorder sur des normes légales, éthiques et environnementales afin de savoir ce qui «est ok ou ce qui pose problème». En somme, il convient d’adopter «une approche intégrée de l’éthique numérique». Parfois considérée comme le pétrole du XXIe siècle, la digitalisation en a aussi les inconvénients: «Les serveurs consomment une énergie folle!»

 

Gianfranco Soldati

Point de vue du philosophe
La question fondamentale que Gianfranco Soldati se pose est la suivante: «Est-ce que l’IA constitue un danger pour nous, les humain·e·s? Va-t-elle prendre des décisions à notre place, notamment sur des aspects fondamentaux de notre vie?» Ces questions, selon le philosophe, laissent entendre qu’il y aurait une substitution progressive de l’humain par l’IA. Gianfranco Soldati, dans un exercice d’origine cartésienne, essaie de faire réfléchir l’auditoire à l’origine de cette crainte. Pour lancer la discussion, il avance l’hypothèse selon laquelle cette peur provient d’une conception fausse que nous nous sommes faites de nous-mêmes en tant qu’humain·e. «Sous l’influence des sciences humaines, qui nous réduisent à une sorte de mécanisme, nous avons développé une image de nous-mêmes qui ressemble beaucoup à l’IA…. D’où notre crainte que l’IA puisse nous dépasser.»

 


L’Unifr, au cœur de l’IA
Si l’IA a au moins un mérite, c’est celui d’échauffer les circonvolutions de nos petits cerveaux, car cette technologie soulève d’innombrables questions et éveille des craintes légitimes. Il n’empêche, l’Université de Fribourg, avec ses cinq facultés, est l’endroit idéal pour appréhender la problématique de manière aussi holistique que possible. Il ne reste plus qu’à espérer une saine émulation entre chercheuses et chercheurs de tous horizons. Et même s’il n’en a pas été question durant le workshop, il est bon de rappeler que l’Université de Fribourg est l’une des chevilles-ouvrières du (SCAI), le centre de compétence national pour le développement et l’implémentation de l’intelligence augmentée.

 

 

__________

]]>
/alma-georges/articles/2023/regards-croises-sur-lintelligence-artificielle/feed 0
«Comprendre ce monde, qui est aussi numérique» /alma-georges/articles/2023/comprendre-ce-monde-qui-est-aussi-numerique /alma-georges/articles/2023/comprendre-ce-monde-qui-est-aussi-numerique#respond Wed, 07 Jun 2023 09:39:09 +0000 /alma-georges?p=18322 Etudiante, Anna Jobin avait opté pour une combinaison entre sociologie, économie et informatique. Un choix qu’elle a longtemps dû justifier et qui en fait aujourd’hui une experte recherchée. Dès la rentrée, elle coordonnera le nouveau master Digital Society.

«Mon choix était naïf. Je n’ai pas eu une ambition visionnaire, j’ai juste opté pour les branches qui m’intéressaient.» Quand elle a commencé l’université, en 2003, Anna Jobin a choisi Fribourg pour son bilinguisme et aussi parce que son programme des Sciences de la société permettait de combiner les disciplines de façon très libre. Elle complète donc la sociologie, sa branche principale, avec de l’économie politique et de l’informatique. «J’ai quand même dû demander des dérogations à deux facultés pour inclure l’informatique», rigole la docteure en Sciences sociales, de retour à l’Université de Fribourg depuis quelques mois. Chargée de cours et lectrice, elle y assurera notamment la coordination d’un nouveau master intitulé Digital Society qui se penchera sur les bouleversements actuels causé par les technologies numériques (lire aussi encadré ci-dessous). «J’ai l’impression de boucler une boucle!» Au fil de son parcours, Anna Jobin a souvent dû justifier son intérêt combiné pour les aspects technologiques et sociologiques. «Il y a dix ans encore, on considérait la numérisation comme une question essentiellement technologique. Aujourd’hui, on est davantage conscient des implications de ces aspects dans notre quotidien et des questions sociales et sociétales que cela pose.»

L’expérience de l’entrepreneuriat
Avant même d’avoir terminé son master, la jeune femme avait lancé sa propre entreprise de conseil en stratégie numérique pour les PME et les indépendants. Une activité qu’elle poursuit quelques années tout en devenant maman. «Les questions et les problèmes de mes client·e·s me servent encore à appréhender les interactions entre les néophytes et les nouveaux outils et les nouvelles offres numériques à leur disposition», relève la chercheuse. A 29 ans, elle revient sur la voie académique par «besoin d’approfondir sa compréhension par la recherche». L’EPFL venait de lancer sa chair Humanités digitales. Anna Jobin y fait un stage de chercheuse. Elle entame ensuite une thèse sur les interactions entre les algorithmes et leurs utilisateur·trice·s, auprès de l’Université de Lausanne. «Mais je n’y ai jamais travaillé en tant qu’assistante-doctorante. Mon parcours a été atypique, constitué d’un patchwork d’emplois et de mandats déjà avant le doctorat.»

Américains en avance
Assistante scientifique à l’EPFL, dans un premier temps, elle rejoint ensuite — et en famille — les Etats-Unis, à l’Université de Cornell, dans l’état de New York. Boursière du Fonds National suisse de la Recherche scientifique, elle y intègre le département de STS (Science and technology studies). «La recherche aux US était très avancée dans le domaine STS. C’était l’occasion d’être en contact direct avec les expert e s les plus impliqué·e·s.» Elle prolonge son séjour d’un an, auprès de l’Université de Tufts, à Boston. «On m’a alors proposé un poste de chercheuse à l’EPFZ. Je ne pouvais pas refuser.» A son retour, la famille, qui s’est agrandie d’un troisième enfant, s’installe à Berne. Anna Jobin en profite pour défendre sa thèse, à Lausanne, en 2019. Deux ans plus tard, au terme de son contrat, elle postule pour un nouveau mandat dans la recherche, au HIIG à Berlin. «Avec la pandémie, j’ai choisi de garder mon domicile à Berne. On a beaucoup travaillé à distance, mais cela n’a pas empêché la cohésion de l’équipe.»

Interfacultaire et interdisciplinaire
En parallèle, la jeune femme répond positivement à plusieurs propositions de charges de cours. «Le projet au HIIG sur la constitution de l’Intelligence Artificielle était passionnant, mais l’enseignement me manquait.» Son CDD à Berlin s’approchant de son terme, elle a répondu à l’annonce pour un poste à Fribourg, incluant la coordination d’un nouveau master. «Je me sens vraiment bien ici parce que ce poste est lié à l’institut Human-IST (Human Centered Interaction Science and Technology). Un institut interfacultaire et interdisciplinaire. C’est pour moi la meilleure approche possible si on veut comprendre globalement ce monde, qui est aussi numérique.» Comment la chercheuse perçoit-elle les débats actuels autour de l’Intelligence Artificielle? «Comme disait Melvin Kranzberg, un historien des technologies, il y a bientôt 40 ans: la technologie n’est ni bonne ni mauvaise, mais elle n’est pas neutre non plus, note Anna Jobin. Les questions sont alors: comment l’utilise-t-on? Comment la contrôle-t-on? Quelle utilisation va-t-on en faire? Je trouve normal que des discussions existent autour des systèmes algorithmiques, surtout celles qu’on nomme aujourd’hui Intelligence Artificielle.» Alors qu’il y a quelques années, les questions techniques cristallisaient les échanges, le débat s’est ouvert aux incidences sur les utilisateur·trice·s et plus largement sur la société. «Longtemps, on hésitait à aborder ces thématiques avec des spécialistes des sciences sociales, alors qu’on avait moins de scrupules à demander leur avis sur des questions sociétales à des expert·e·s en technologie. J’apprécie qu’on m’ait toujours laissée participer au débat!»

Politique et gouvernance
La quadragénaire est d’ailleurs régulièrement sollicitée et appartient à plusieurs groupes de travail au niveau national. Depuis octobre 2021, elle préside également la Commission fédérale des médias. «Dans ce domaine, les défis liés au numérique sont très concrets, souligne Anna Jobin. Et ils méritent une attention particulière compte tenu du rôle des médias dans le fonctionnement démocratique.» Mais qu’on s’adresse à des expert·e·s issus de la technologie ou à des spécialistes des sciences sociales, leurs conclusions sont assez similaires: «Ces questions doivent trouver des réponses d’ordre politique ou de gouvernance, souligne la spécialiste. Souvent, le numérique met à nu des problèmes préexistants, parfois en les amplifiant par l’automatisation. On parle de gouvernance plutôt que de réglementation afin d’inclure tous les aspects formels et informels liés aux normes, aux valeurs et aux pratiques numériques.» Pour la chercheuse, une prise de conscience a bien eu lieu, même si les réponses ne sont pas encore adaptées. «Mieux vaut essayer que de continuer à laisser faire.»

Créer des ponts entre les disciplines

Le nouveau master Digital Society proposé par l’Unifr est axé sur les dimensions et les conséquences sociales des technologies numériques dans les sociétés actuelles. «On va chercher à créer des ponts entre les disciplines, en intégrant la sociologie, l’anthropologie, l’économie, la communication, le design, l’histoire contemporaine et l’informatique», détaille sa coordinatrice Anna Jobin.

Pour comprendre les enjeux, connaître l’histoire des développements technologiques ne suffit pas. Les influences politiques et sociales sont également importantes. «Comment penser et étudier les technologies numériques, les pratiques en ligne, la gouvernance dans un monde connecté? Qu’est-ce qui se développe et pourquoi? Comment les ressources sont-elles distribuées? Qui décide et comment les décisions sont-elles prises (au sujet des innovations et de leurs applications)? Quels types de pouvoir sont mis en jeu? Voilà quelques-unes des questions qui nous intéressent», énumère la docteure en sciences sociales.

Pour son lancement, à la rentrée 2023, le cursus est proposé comme un programme d’études secondaires master. En vue de l’évolution des enjeux et des questionnements, il pourrait prendre de l’importance dans les années à venir.

__________

]]>
/alma-georges/articles/2023/comprendre-ce-monde-qui-est-aussi-numerique/feed 0