Le plus gros problème éthique du futur de l'A.

Le plus gros problème éthique du futur de l'IA.

Le plus gros problème éthique du futur de l'IA

L'intelligence artificielle (IA) se développe rapidement et devient une caractéristique intégrale de presque tous les types de plates-formes logicielles auxquelles vous pouvez penser. Il sert de base à d'innombrables types d'assistants numériques. Il est utilisé dans tout, de l'analyse des données et de la reconnaissance de formes à l'automatisation et à la réplication de la parole.

Le potentiel de cette technologie a défié les leaders imaginaires pendant des décennies, inspirant les écrivains de science-fiction, les entrepreneurs et tous ceux qui se trouvent entre les deux à spéculer sur ce à quoi ressemblera un avenir dirigé par l'IA. Cependant, à mesure que nous nous rapprochons des caractéristiques d'une technologie hypothétique, il y a des problèmes éthiques à considérer.

Chômage et disponibilité d'emploi

Le premier est le problème du chômage. L'IA a certainement la capacité d'automatiser des tâches qui auparavant ne pouvaient être effectuées que par un effort humain manuel.

Les experts disent qu'un jour cela pourrait détruire l'économie et le bien-être de notre société. L'IA peut être si avancée et omniprésente qu'elle peut remplacer une grande partie des emplois humains. Cela créerait un nombre record de chômeurs, ce qui peut conduire à une économie généralisée et à la dépression - puis à d'autres problèmes comme la criminalité.

D'un autre côté, les experts affirment que l'IA transformera largement les emplois existants; Au lieu de changer d'emploi, l'IA les réparera et permettra aux gens d'améliorer leurs compétences et de progresser.

Le dilemme éthique ici dépend vraiment de l'employeur. Si vous pouviez utiliser l'IA pour remplacer les humains, cela augmenterait l'efficacité, réduirait les coûts et augmenterait la sécurité en même temps, n'est-ce pas? Cela peut sembler logique, mais à grande échelle, de nombreuses entreprises prennent de telles décisions qui peuvent avoir des conséquences dangereuses.

Accès à la technologie et inégalités de richesse

Nous devons également tenir compte de la disponibilité de la technologie de l'IA et de son impact potentiel sur les futures inégalités de richesse. Aujourd'hui, les entités d'IA les plus avancées sont généralement les grandes entreprises technologiques et les riches. Par exemple, Google utilise l'IA pour ses opérations commerciales traditionnelles, y compris le développement de logiciels, ainsi que pour des innovations expérimentales - par exemple, pour battre les meilleurs joueurs du monde.

L'IA a la capacité d'augmenter considérablement la capacité de production, l'innovation et même la créativité. Ceux qui ont accès à l'IA avancée ont un avantage énorme et plus grand par rapport aux personnes dont l'accès est plus limité. Étant donné que seules les personnes les plus riches et les entreprises les plus puissantes auront accès à l'IA la plus puissante, les lacunes préexistantes en matière de richesse et de pouvoir se creuseront presque certainement.

Mais quelle est l'alternative? Devrait-il y avoir un endroit qui donne accès à l'IA? Si oui, qui devrait prendre cette décision? La réponse n'est pas si simple.

Que signifie être humain?

Si nous utilisons l'IA pour changer l'intelligence humaine ou pour changer la façon dont les gens interagissent, nous devons également réfléchir à ce que signifie être humain. Si quelqu'un montre une réussite intellectuelle à l'aide d'une puce d'IA implantée, pouvons-nous encore la considérer comme une réussite humaine? Si nous comptons plus sur les interactions avec l'IA que sur les interactions humaines dans nos besoins quotidiens, quel impact cela aura-t-il sur notre humeur et notre bien-être? Avons-nous besoin de changer notre approche de l'IA pour éviter cela?

Le maximiseur de trombones et autres problèmes liés à l'IA étant “Too Good”

L'un des problèmes les plus connus de l'IA est le potentiel d'être «trop bon». En substance, cela signifie que l'IA est très puissante et conçue pour effectuer une tâche spécifique, mais sa mise en œuvre a des conséquences inattendues.

Une expérience de pensée souvent citée pour explorer cette idée est le «maximiseur de trombones», une intelligence artificielle qui vise à rendre les trombones aussi efficaces que possible. Le seul but de cette machine est de fabriquer des trombones. Resté seul, il pourrait commencer à fabriquer des trombones à partir d'une source finie de matériaux, ce qui finirait par dévorer la planète. Et si vous essayez de l'éteindre, cela peut vous arrêter - parce que vous interférez avec sa seule fonction de fabrication de trombones. Les machines sont inoffensives ou même conscientes, mais peuvent effectuer des actions très destructrices.

Ce dilemme est exacerbé par le fait que la plupart des programmeurs ne connaissent pas les lacunes de leur propre programmation avant qu'il ne soit trop tard. Actuellement, aucun régulateur ne peut dicter comment l'IA doit être programmée pour éviter une telle catastrophe car le problème est invisible. Devrions-nous continuer à repousser les limites de l'IA de manière indépendante? Ou ralentir jusqu'à ce que nous puissions mieux résoudre ce problème?

Biais et bénéfices inégaux

Alors que nous utilisons des formes basiques d'IA dans la vie de tous les jours, nous prenons de plus en plus conscience des préjugés qui résident dans son codage. L'intelligence artificielle conversationnelle, les algorithmes de reconnaissance faciale et même les moteurs de recherche sont en grande partie basés sur des données démographiques similaires et ignorent donc les problèmes auxquels d'autres groupes démographiques sont confrontés. Par exemple, les systèmes de reconnaissance faciale peuvent mieux reconnaître les visages blancs que les populations minoritaires.

Qui d'autre est chargé de résoudre ce problème? Une main-d'œuvre plus diversifiée que les programmeurs peut contrecarrer cet effet. Mais est-ce une garantie? Dans l'affirmative, comment appliqueriez-vous une telle directive?

Confidentialité et sécurité

Les consommateurs sont de plus en plus préoccupés par la confidentialité et la sécurité en matière d'IA, et pour de bonnes raisons. Les utilisateurs de la technologie d'aujourd'hui sont habitués à intégrer des appareils et des logiciels dans leur vie. Votre smartphone, haut-parleur intelligent et autres appareils les écoutent et collectent en permanence des données à leur sujet. Chaque action que vous effectuez sur le Web, de l'examen des applications de médias sociaux à la recherche de produits, est enregistrée.

À première vue, ce n'est pas grave. Mais lorsqu'une IA forte est entre de mauvaises mains, elle est facile à utiliser. Une personne, une entreprise ou un pirate informatique motivé pourrait utiliser l'intelligence artificielle pour connaître et attaquer des cibles potentielles - ou utiliser ses informations à des fins malveillantes.

Le problème du génie maléfique

Un autre problème éthique dans le monde de l'IA est le problème du «génie du mal». En d'autres termes, quels contrôles pouvons-nous utiliser pour empêcher une IA puissante de tomber entre les mains d'un "génie maléfique", et qui devrait assumer la responsabilité de ce contrôle?

Ce problème est similaire au problème des armes nucléaires. Si même les «mauvaises» personnes ont accès à cette technologie, elles peuvent causer des dommages incommensurables au monde. La solution la plus recommandée pour les armes nucléaires est de désarmer ou de limiter le nombre d'armes actuellement disponibles de toutes parts. Cependant, l'IA sera beaucoup plus difficile à contrôler - et nous perdrons tous les avantages potentiels de l'IA en limitant sa progression.

Droits de l'IA

Les écrivains de science-fiction aiment imaginer un monde dans lequel l'IA est si complexe qu'elle est pratiquement impossible à distinguer de l'intelligence humaine. Les experts débattent de la possibilité, mais considèrent que c'est possible. Est-il dans notre intérêt de traiter cette IA comme une "vraie" forme d'intelligence? Cela signifie-t-il qu'il a les mêmes droits que les humains?

Cela ouvre la porte à une grande variété de considérations éthiques. Par exemple, revenir à notre question de savoir ce que signifie être humain, nous oblige à nous demander si éteindre la machine un jour pourrait être considéré comme un meurtre.

De toutes les considérations éthiques sur cette liste, c'est de loin celle. Nous sommes loin d'une zone où l'IA pourrait ressembler à une intelligence à échelle humaine.

Caractéristiques technologiques

Il y a aussi une perspective des fonctionnalités technologiques - le point auquel l'IA est devenue si puissante qu'elle surpasse l'intelligence humaine à tous points de vue, remplaçant plus que quelques fonctions traditionnellement très manuelles. Dans ce cas, l'IA augmentera probablement - et fonctionnera sans intervention humaine.

Qu'est-ce que cela signifie pour l'avenir? Pouvons-nous être sûrs que ces machines fonctionnent dans le meilleur intérêt de l'humanité? La meilleure solution sera-t-elle d'éviter à tout prix ce progrès?

Il n’existe pas de réponses simples à tous ces dilemmes éthiques, c’est pourquoi ils demeurent des dilemmes forts et importants auxquels il faut remédier. Si nous voulons progresser sur le plan technologique tout en maintenant une culture sûre, éthique et productive, nous devons prendre ces préoccupations au sérieux à mesure que nous progressons.
Commentaires