Turing pris à revers
On lit un peu de tout et pas mal de n’importe quoi au sujet de l’IA ces derniers temps. J’ai donc décidé d’apporter ma modeste pierre à l’édifice et de publier quelques textes à ce sujet. Docteur en IA, ayant fait de la recherche dans ce domaine de 1998 à 2003, et ayant enseigné cette matière en école d’ingénieurs de 2004 à 2010, je suis outillé pour comprendre de quoi on parle. Actuellement, je suis toujours avec intérêt ce qui se passe dans le domaine, mais de plus loin. Cela me donne un recul que n’ont pas certains spécialistes actuels de la branche, alors qu’eux sont imbattables sur les détails des développements récents. J’espère donc que mon éclairage atypique pourra aider quelques personnes à y voir plus clair dans ce sujet actuellement très chaud.
Après un premier texte sur la définition de l’IA et un second sur sa consommation énergétique, voici une petite réflexion sur les risques (ou non) que l’humain soit rattrapé par la machine.
Vous est-il jamais arrivé, lors d’un contact avec le service client d’une grosse entreprise ou d’une administration, de vous demander si la personne que vous avez au bout du chat, voire même au téléphone, est réellement un humain?
Les procédures qualité et la volonté que tout employé soit un simple rouage remplaçable dans la mécanique de l’entreprise transforment parfois les employés en machines.
Alan Turing, l’un des pères fondateurs de l’informatique, imagine en 1950 déjà un test pour déterminer si une machine est intelligente ou non.
En gros, l’idée est qu’un examinateur mène en parallèle deux conversations - par écrit - avec un humain d’une part et un ordinateur d’autre part. S’il est incapable de déterminer lequel de ses interlocuteurs est une machine, cette dernière passe le test et est donc déclarée intelligente.
Nous sommes probablement proche du moment où des ordinateurs seront capables de passer le test de Turing. Mais peut-être pas exactement pour les raisons imaginées par Turing lui-même.
Les machines ont fait des progrès époustouflants ces dernières années, c’est un fait. Mais les méthodes de management moderne, les économies dans le secteur de la formation et les logiciels d’aide à la rédaction de textes lisibles (risibles?) ont également pour effet de baisser le niveau de langage - et parfois de pensée - d’un certain nombre d’humains.
Ainsi lorsque l’on clamera, dans une année ou dans cinq ans, que pour la première fois une machine a passé le test de Turing, il sera bon de se demander: est-ce parce que nous avons réussi à hisser la machine au niveau de l’intelligence humaine, ou à broyer des humains pour en faire des machines?