Plan du site  
pixel
pixel

Articles - Étudiants SUPINFO

Les vrais risques de l'intelligence artificielle

Par Daniel HERRENSCHNEIDER Publié le 13/01/2018 à 12:53:55 Noter cet article:
(0 votes)
Avis favorable du comité de lecture

L’intelligence artificielle a fait des grands progrès ces dernières années. Mais, bien avant tous ces progrès, nous avions déjà commencé à avoir peur de l’intelligence artificielle. Ces peurs sont retranscrites dans des œuvres comme la nouvelle « Nouveau modèle » de Philippe K. Dick ou dans les sagas de films « Terminator » ou « Matrix ». Si, en réalité, on est encore loin d’arriver à ces scénarios apocalyptiques, les progrès de l’intelligence artificielle ne sont pas sans risques. Cet article décrit les principaux risques réalistes de l’intelligence artificielle. Nous parlerons dans un premier temps des risques dû à une mauvaise programmation, puis des risques pouvant influencer la société actuelle.

Risques dus à une mauvaise programmation

L’association OpenAI s’est penché sur la question des risques de l’intelligence artificielle. Ils ont estimé 3 catégories de risques à prendre en compte lors du développement d’une IA.

Tout d’abord, une intelligence artificielle est très obéissante envers les ordres qui lui ont été donnés. Le problème survient si les objectifs ont mal été évalués. L’IA, par sa nature non rebelle, ne cherchera pas à savoir si l’objectif est intelligent et sans danger. Une IA peut ne pas comprendre que telle ou telle action est dangereuse pour les êtres humains, même si l’objectif est correctement réglé. Elle ne sait pas forcément que telle action peut blesser un utilisateur. Ensuite, une IA risque de réagir n’importe comment face à une situation nouvelle. En tant qu’être humain, nous sommes capables d’ignorer une situation, de ne pas tenter d’utiliser un outil que nous ne connaissons pas par exemple. Mais une IA ne possède pas naturellement ces reflexes.

De plus, une IA peut aussi faire un « détournement de récompense ». C’est-à-dire qu’elle pourrait arrêter d’effectuer une tâche pour atteindre la fin de celle-ci. Par exemple, un robot aspirateur pourrait éteindre ses capteurs pour arriver à son objectif de « ne plus détecter de poussière ».

Dernier problème, il y a le risque de saturation des utilisateurs, c’est-à-dire que les utilisateurs se font harceler par les IA. Si on reprend l’exemple du robot aspirateur, il risque de s’activer en plein milieu de la nuit dans la chambre de l’utilisateur, car l’IA n’a pas pris en compte que le sommeil de l’utilisateur est important.

Risques sociétaux

L’intelligence artificielle peut menacer les emplois. Etant donné que l’intelligence artificielle peut agir plus efficacement qu’un être humain, il est tout à fait possible que les entreprises préfèrent payer des licences de logiciels plutôt que des salariés. De plus, une IA a une efficacité constante et peut travailler en permanence sans jamais s’arrêter. En 2015, l’OCDE estime que 9% des emplois sont menacés par les IA. Un chiffre qui est en contradiction totale avec une étude réalisé en 2014 par deux chercheurs d’Oxford qui avaient estimés que le danger était de 47% d’emplois menacés. Rappelons-nous que l’informatique est déjà accusée d’avoir supprimé des emplois, notamment le métier de documentaliste « à cause de Google ». Marie-Claire Carrère-Gée, présidente du conseil d’orientation de l’emploi, précise que les études ne prennent pas en compte que l’intelligence artificielle pourra créer des emplois. Une situation qui rappelle l’époque où l’on croyait que la création de l’automobile créerait des vagues de chômage mais qui, au contraire, a généré beaucoup d’emplois. Ce risque est donc non quantifiable.

Ensuite, les IA peuvent être utilisés pour faciliter des objectifs mal intentionnés notamment l’influence de l’opinion publique. Eric Horvitz, directeur du Microsoft Research Labs (photo ci-dessus), a évoqué lors du festival SXSW à Austin aux Etats-Unis, que les IA pourraient rédiger des tweets pour manipuler les opinions politiques des gens. Elles pourraient créer des « fake news » ou jouer avec les propos d’un homme politique pour convaincre les gens. Ce risque est réel avec les IA, car elles sont capables de comprendre le raisonnement humain et de se faire passer pour des humains. En effet, Eugene Goostman est une IA qui a réussi le test de Turing, c’est-à-dire à se faire passer pour un être humain.

Puis, l’intelligence artificielle peut devenir très dangereuse si elle est au service d’un gouvernement surveillant tous ses citoyens. En effet, les logiciels deviennent capables de comprendre une image, de reconnaitre des formes, des visages, mais aussi de détecter un changement de température corporelle, le haussement de la voix et le déplacement des gestes. Si ces techniques commencent à être utilisées dans la lutte anti-terroriste, elles peuvent aussi être utilisées pour éliminer des opposants politiques.

Conclusion

L’intelligence artificielle fait des progrès énormes, ce qui lui donne la capacité de se retourner contre nous. Nous sommes encore loin des scénarios apocalyptiques, mais il existe déjà beaucoup de risques pouvant arriver dans les prochaines années. Ce sont globalement des risques manipulant l’opinion des gens, menaçant des emplois ou des risques liés à une mauvaise programmation de ces systèmes. Dans tous les cas, nous avons la possibilité de les éviter si on les prend en compte dans le développement des intelligences artificielles et si on encadre juridiquement les droits et les devoirs des IA.

Références

  • www.lemonde.fr

  • www.science-et-vie.com

  • www.en.wikipedia.org

  • www.pixabay.com (pour la première image)

A propos de SUPINFO | Contacts & adresses | Enseigner à SUPINFO | Presse | Conditions d'utilisation & Copyright | Respect de la vie privée | Investir
Logo de la société Cisco, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société IBM, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Sun-Oracle, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Apple, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Sybase, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Novell, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Intel, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Accenture, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société SAP, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Prometric, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo de la société Toeic, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management Logo du IT Academy Program par Microsoft, partenaire pédagogique de SUPINFO, la Grande École de l'informatique, du numérique et du management

SUPINFO International University
Ecole d'Informatique - IT School
École Supérieure d'Informatique de Paris, leader en France
La Grande Ecole de l'informatique, du numérique et du management
Fondée en 1965, reconnue par l'État. Titre Bac+5 certifié au niveau I.
SUPINFO International University is globally operated by EDUCINVEST Belgium - Avenue Louise, 534 - 1050 Brussels