L'intelligence artificielle est une discipline et un ensemble de méthodes pour aller simuler un phénomène via une modélisation algorithmique dont l'objectif est de répondre à une question, de résoudre un problème ou de comprendre des phénomènes via une simulation automatique sur un ordinateur.
Il s'agit d'une imitation de certains comportements de l'intelligence humaine mais n'en maitrise qu'une seule qui est l'intelligence analytique via un raisonnement algorithmique constitué l'opérations de logique implicite ou explicite.
Sur la peur d'être remplacé, le créatif connait sa valeur et doit la défendre pour ne pas être remplacer par une homogénéisation de la connaissance et du savoir. Il s'agit d'un impact possible sur les tâches et non sur les métiers directement.
Trois domaines de la médecine vont bénéficiers de l'IA : Médecine prédictive (réduction des risques de maladie), médecine personnalisé (traitement, examen en fonction du type de patient) et médecine de précision (prédiction en fonction de données plus précises)
L'intelligence artificielle ne doit pas nous faire oublier le rôle de l'apprentissage qui sert à 2 choses : à appliquer son apprentissage dans la vie pratique qui s'appelle la transmission des savoirs en éducations mais c'est aussi à comprendre une discipline exemple avec les tables de multiplication ou les divisions euclidiennes permet d'avoir un regard critique pour détecter les erreurs, les problèmes dans le calcul, autre exemple avec l'apprentissage d'une langue permet de la comprendre et donc de connaître la culture qui lui est attaché qu'un traducteur ne pourra faire. C’est apprendre mais pas seulement pour transmettre ses savoirs.
Sur l'utilisation de l'intelligence artificielle par les enfants d'écoles, un conseil aux enseignants est de revoir les méthodes d'évaluation des élèves. Exemple d'une évaluation avec un devoir de dissertation à faire à la maison ne peut plus marcher avec les outils disponibles aujourd'hui (chatGPT ou autres informations sur internet). Le risque est que l'élève croit systématiquement ce que l'élève va rechercher sur internet ou qui sera généré. C'est sur ce point-là qu'il faut travailler. C'est aussi une opportunité pour revoir les méthodes d'évaluation des élèves.
La lettre signée par E. Musk et d'autres n'a pas était signée par des grands scientifiques du domaine et des ingénieurs de l'IA. Ils sont contre car elle ne se base pas sur un point de vue scientifique mais politique et marketing. Ils ne se retrouvent pas dans cette lettre car elle ne parle pas de la discrimination technologique, des enjeux environnementaux ou des digital labors (travailleurs du click) ni des conditions de travail pour aller annoter et nettoyer de la data.
Il existe des risques mais la vision apocalyptique long termiste n'a pas de base scientifique. Il y a des conséquences sur l'humain mais pas l'extermination. Si une machine vous attaque, il suffit de la débrancher. Les risques sont dans notre rapport à la réalité (différencier le réel du virtuel dans les images, le contenu de l'information transmise) sur lesquels nous devons travailler. Les IA sont déjà bien plus intelligentes que nous sur le calcul analytique et tant mieux. Mais sur l'émotion, l'intelligence pratique, l'esprit critique, le doute. Il faut juste arriver à comprendre notre complémentarité.
Sur les textes de loi, il existe 3 phases :
Est-ce qu'elle doit exister ? Comment est-elle écrite ? Comment est-elle appliquée ?
Sur l'IA Acte
exister oui, écrite en faisant la différence entre technologie et utilisation (ex. détection faciale).
Au niveau de l'impact environnemental, il y a seulement certains types de modèle qui consomment énormément. Les scientifiques ne travaillent pas sur la mesure de l'impact de leur travail directement mais il faut aller démontrer que l'effort est fait pour minimiser cette consommation. Il est possible de minimiser au regard du jeu de data que l'on peut minimiser, au regard du type d'algorithme utilisé. Il y a aussi le cout de la décision entre faire un algorithme pour sauver des millions de gens ou pour en faire un pour identifier un chier sur une photo. Il existe des personnes qui travaille sur la minimisation de l'impact lors du transport de l’énergie (utilisation de la lumière), serveurs moins énergivores dont la chaleur produite et utilisée pour chauffer une maison ou piscine? Les acteurs savent chercher à minimiser les consommations et mettre l'argent au bon endroit sans aller vers un solutionnisme technologique et scientifique, ils existent des choses pour diminuer ces consommations.
Sur les deepfakes, il existe une solution de "watermark" ou tatouage numérique qui consiste à considérer une image comme un signal ou plusieurs signaux combinés et d’introduire dans ces signaux un signal d'identification (label) qui prouve que l'image est vraie, difficile à décrypter et permettant d'avoir une traçabilité d'un contenu. Il y a aussi l'apprentissage de l'esprit critique en se posant le question "d'oû vient cette image ?" et c'est là oû les journalistes ont une valeur ajoutée parce que les journalistes, on les croit. Travail a faire sur la responsabilité individuelle et collective d'un partage d'information et donc de sa propagation virale de ce deepfake.
Sur les données d'entrainement de chatGPT utilisées par openAI. Ce sont des données majoritairement venant d'Internet, wikipédia et de bases de connées ouvertes. Sur Internet tout n'est pas vrai, avec certaines idéologies. Mais nous ne connaissons pas le type de données utilisé pour entrainer chatGPT et donc nous ne pouvons pas juger de la pertinence de l'algorithme.
Une IA n'est pas capable d'avoir de l'imagination, quelque chose d'inédit n'est pas quelque chose de crée. C'est de la génération (IA générative). La vision est une intension qui est proprement humaine qui vient de l'intelligence créative, émotionnelle et pratique. Une IA ne maitrise qu'une intelligence analytique. Elle peut simuler d'autres intelligences (Ce n'est pas parce qu’une IA vous dit "je t'aime" qu'elle ressent les émotions sous-jacentes).