Qu’est-ce que l’intelligence artificielle?

L’intelligence artificielle (IA) fait référence à l’intelligence présentée par les machines. Il se situe à l’intersection du big data, du machine learning et de la robotique. La robotique apporte la conception, la construction et le cadre opérationnel nécessaires. Un robot peut être défini comme une machine capable d’exécuter automatiquement une série complexe d’actions, notamment programmable par un ordinateur ». Les robots modernes sont souvent des algorithmes virtuels effectuant non seulement des tâches physiques mais aussi cognitives. L’apprentissage automatique permet à ces robots d’acquérir des connaissances et des compétences, voire d’améliorer leurs propres performances. Les mégadonnées constituent la matière première de l’apprentissage automatique et offrent des exemples sur lesquels les robots peuvent s’exercer »afin d’apprendre, de s’exercer et, finalement, d’exécuter plus efficacement les tâches qui leur sont assignées. L’idée de machines intelligentes est née au début du 20e siècle. Dès le début, l’idée d’une intelligence «humaine» était la clé. À la suite des travaux fondateurs de Vannevar Bush de 1945, où il a proposé un système qui amplifie les connaissances et la compréhension des gens », Alan Turing a posé la question: une machine peut-elle penser? Dans son célèbre jeu d’imitation de 1950, Turning a proposé un test de la capacité d’une machine à présenter un comportement intelligent équivalent à celui d’un humain. Un évaluateur humain juge une conversation d’échange de texte entre un humain et une machine conçue pour générer des réponses de type humain. L’évaluateur serait conscient que l’un des deux partenaires en conversation est une machine, et tous les participants seraient séparés l’un de l’autre. Si l’évaluateur ne peut pas distinguer de manière fiable la machine de l’homme, la machine est réputée avoir réussi le test. Le terme spécifique d’intelligence artificielle »a été utilisé pour la première fois par John McCarthy à l’été 1956, lors de la première conférence universitaire sur le sujet à Dartmouth. Cependant, l’approche traditionnelle de l’IA ne reposait pas vraiment sur l’apprentissage automatique indépendant. Au lieu de cela, l’objectif était de spécifier des règles de raisonnement logique et des conditions réelles auxquelles les machines pouvaient être programmées pour suivre et réagir. Cette approche prenait beaucoup de temps aux programmeurs et son efficacité reposait fortement sur la clarté des règles et des définitions. Par exemple, l’application de cette approche de règles et de contenu à la traduction en langage machine nécessiterait que le programmeur équipe proactivement la machine de toutes les règles grammaticales, du vocabulaire et des idiomes des langues source et cible. Ce n’est qu’alors que l’on pouvait alimenter la machine une phrase à traduire. Comme les mots ne peuvent pas être réduits uniquement à leur définition de dictionnaire et qu’il existe de nombreuses exceptions aux règles de grammaire, cette approche serait inefficace et offrirait finalement des résultats médiocres, du moins si nous comparons le résultat avec un traducteur professionnel et humain. L’IA moderne s’est écartée de cette approche en adoptant la notion d’apprentissage automatique. Ce changement suit en principe la recommandation de Turing d’enseigner à une machine à effectuer des tâches spécifiques comme si elle était un enfant. En construisant une machine avec des ressources informatiques suffisantes, en offrant des exemples de formation à partir de données du monde réel et en concevant des algorithmes et des outils spécifiques qui définissent un processus d’apprentissage, plutôt que des manipulations de données spécifiques, les machines peuvent améliorer leurs propres performances par l’apprentissage par la pratique, en inférant des modèles et vérification des hypothèses. Ainsi, il n’est plus nécessaire de programmer à l’avance des règles longues et compliquées pour les opérations spécifiques d’une machine. Au lieu de cela, les programmeurs peuvent les équiper de mécanismes flexibles qui facilitent l’adaptation des machines à leur environnement de tâches. Au cœur de ce processus d’apprentissage se trouvent des réseaux de neurones artificiels, inspirés des réseaux de neurones du cerveau humain. Le but du réseau de neurones est de résoudre les problèmes de la même manière qu’un cerveau humain supposé, quoique sans aucune conscience consciente codifiée des règles et des schémas qui ont été déduits des données. Les projets de réseaux neuronaux modernes fonctionnent généralement avec quelques milliers à quelques millions d’unités neuronales et des millions de connexions, qui sont encore plusieurs ordres de grandeur moins complexes que le cerveau humain et plus proches de la puissance de calcul d’un ver (voir la documentation Intel AI pour plus de détails). Alors que les réseaux avec plus de couches cachées devraient être plus puissants, la formation de réseaux profonds peut être plutôt difficile, en raison de la différence de vitesse à laquelle chaque couche cachée apprend. En catégorisant les façons dont cette structure de neurones artificiels peut interagir avec les données sources et les stimuli, nous pouvons identifier trois types différents d’apprentissage automatique: Apprentissage supervisé: le réseau neuronal est fourni avec des exemples d’entrées et de sorties souhaitées correspondantes. Il apprend ensuite «comment mapper avec précision les entrées aux sorties en ajustant les poids et les seuils d’activation de ses connexions neuronales. Il s’agit de la technique la plus utilisée. Une utilisation typique consisterait à former les serveurs de messagerie à choisir les e-mails à envoyer automatiquement dans le dossier spam. Une autre tâche qui peut être apprise de cette manière consiste à trouver les résultats les plus appropriés pour une requête saisie dans un moteur de recherche. Apprentissage non supervisé: le réseau neuronal est fourni avec des exemples d’entrées, puis il est laissé de reconnaître les caractéristiques, les modèles et la structure de ces entrées sans aucune orientation spécifique. Ce type d’apprentissage peut être utilisé pour regrouper les données d’entrée en classes sur la base de leurs propriétés statistiques.Il est particulièrement utile pour trouver des éléments dont vous ne connaissez pas la forme, tels que des modèles non encore reconnus dans un grand ensemble de données. Apprentissage par renforcement: le réseau neuronal interagit avec un environnement dans lequel il doit effectuer une tâche spécifique, et reçoit un retour sur ses performances sous forme de récompense ou de punition. Ce type d’apprentissage correspond, par exemple, à la formation d’un réseau pour jouer à des jeux informatiques et obtenir des scores élevés. Étant donné que les réseaux de neurones artificiels sont basés sur une structure et une fonction posées du cerveau humain, une question naturelle à poser est de savoir si les machines peuvent surpasser les êtres humains. En effet, il existe plusieurs exemples de jeux et de compétitions dans lesquels les machines peuvent désormais battre les humains. À l’heure actuelle, les machines ont dépassé les meilleurs humains dans la plupart des jeux traditionnellement considérés comme des mesures de l’intellect humain, y compris les échecs (rappelons par exemple le match de 1997 entre Deep Blue d’IBM et le champion Garry Kasparov), Scrabble, Othello et Jeopardy!. Même dans les jeux plus complexes, les machines semblent améliorer rapidement leurs performances grâce à leur processus d’apprentissage. En mars 2016, le programme informatique AlphaGo de la startup AI DeapMind (acheté par Google en 2014) a battu Lee Sedol lors d’un match de cinq matchs de Go – le plus ancien jeu de société, inventé en Chine il y a plus de 2500 ans. C’était la première fois qu’un programme Computer Go battait un professionnel de 9 dan sans handicap Les performances d’apprentissage machine les plus frappantes ont probablement eu lieu dans le cadre du défi de reconnaissance visuelle à grande échelle ImageNet, qui évalue les algorithmes de détection d’objets et de classification d’images à grande échelle. Pour un mot donné, ImageNet contient plusieurs centaines d’images. Dans le cadre du concours annuel ImageNet, plusieurs groupes de recherche s’affrontent pour que leurs ordinateurs reconnaissent et étiquettent automatiquement les images. Les humains étiquettent en moyenne une image correctement 95% du temps. Le nombre respectif du système d’IA gagnant en 2010 était de 72%, mais au cours des deux prochaines années, le taux d’erreur a fortement chuté. En 2015, les machines ont réussi à atteindre une précision de 96%, réduisant pour la première fois le taux d’erreur en dessous du niveau moyen humain. Il est important de comprendre que bon nombre de ces machines sont programmées pour effectuer des tâches spécifiques, réduisant la portée de leur fonctionnement. Les humains sont donc toujours supérieurs dans l’exécution de tâches générales et dans l’utilisation de l’expérience acquise dans une tâche pour exécuter une autre tâche. Prenez, par exemple, le défi ImageNet. Comme l’a souligné Olga Russakovsky, l’une des organisatrices du défi, en 2015, les programmes n’ont qu’à identifier les images comme appartenant à l’une des mille catégories; les humains peuvent reconnaître un plus grand nombre de catégories et aussi (contrairement aux programmes) juger du contexte d’une image ». L’apprentissage multitâche et l’IA de tâches générales accusent toujours un retard par rapport aux capacités cognitives et aux performances humaines. En effet, ce sont les prochains grands défis pour les équipes de recherche en IA. Par exemple, une voiture autonome qui conduit un itinéraire spécifique dans un environnement contrôlé est une tâche assez différente d’une voiture sur la route dans un trafic et des conditions météorologiques variées et imprévisibles. Néanmoins, l’amélioration rapide des performances des machines grâce à l’apprentissage est quelque chose qui est facilement observable depuis 2012, lorsque les réseaux de neurones d’apprentissage en profondeur ont commencé à être construits et exploités. Les progrès technologiques ont augmenté la vitesse à laquelle les machines améliorent leur fonction, accélérant davantage les progrès de l’IA. Qu’est-ce que cela signifie? L’IA pourrait apporter des avantages sociaux substantiels, qui amélioreront de nombreux aspects de nos vies. Par exemple, les machines intelligentes peuvent rendre les soins de santé plus efficaces, en fournissant des diagnostics et des traitements plus précis et plus rapides. La capacité accrue des scanners de machine à analyser des images comme les rayons X et les tomodensitogrammes peut réduire la marge d’erreur dans un diagnostic. Cela peut également conduire à de grandes économies de temps. Dans la lutte contre le cancer du sein, Forbes illustre à quel point l’IA peut être efficace. Jusqu’à présent, les femmes dépendent des examens mensuels à domicile et des mammographies annuelles pour détecter le cancer du sein. Cyrcadia Health, une start-up de thérapie contre le cancer, a développé un patch rempli de capteurs qui peut être inséré confortablement sous un soutien-gorge pour un usage quotidien. Se connectant via le smartphone ou le PC de la femme, le patch utilise des algorithmes d’apprentissage automatique pour suivre les températures des tissus mammaires de la femme et analyser ces données au laboratoire Cyrcadia. Si elle détecte un changement de schéma, la technologie alertera rapidement la femme – et son fournisseur de soins de santé – pour planifier un suivi avec son médecin. La première génération de machines IA est déjà arrivée sous forme d’algorithmes informatiques dans les marchés de la traduction en ligne, de la recherche, des marchés numériques et de l’économie collaborative. Les algorithmes apprennent à effectuer leurs tâches plus efficacement, offrant une expérience meilleure et de meilleure qualité aux utilisateurs en ligne. De tels gains d’efficacité grâce à la technologie intelligente conduisent à des avantages sociaux élevés, comme le rapportent de nombreuses études (par exemple, voir Petropoulos, 2017 pour les avantages de l’économie collaborative, rendus possibles par l’IA et l’apprentissage automatique). La destination finale de la recherche sur l’IA est encore incertaine. Mais les machines continueront de devenir de plus en plus intelligentes, effectuant les tâches qui leur sont assignées de manière toujours plus efficace. Selon leur conception et leur construction, ils peuvent avoir de nombreuses applications. Cependant, ils interagiront également avec les humains de manière parfois difficile. Les décideurs et les chercheurs doivent être préparés à la révolution de l’IA. Si nous ne savons pas à 100% comment fonctionne le cerveau, et que nous avons décidé de créer une intelligence artificielle basée sur notre compréhension impartiale du cerveau, et de laisser les robots apprendre de l’expérience du «monde», qu’est-ce qui pourrait mal tourner?

  1. quel monde vont-ils vivre? Nous ne voulons pas que les robots se rebellent et deviennent trop calmes. Si nous apprenons de cet exercice sur ce que les robots doivent et ne doivent pas expérimenter (afin qu’ils ne soient pas indisciplinés), ces connaissances seront-elles également utilisées sur les humains, afin que nous, les humains, ne vivions qu’un monde d’enfance conçu pour que nous grandissions seulement obéir (encore plus efficacement qu’aujourd’hui)?
  2. Les sociopathes et les psychopathes font ce qu’ils font (a) appréciant la douleur qu’ils infligent, ou (b) ne ressentant pas du tout la douleur qu’ils infligent. Dans ces derniers, leur monde est purement intellectuel. À quoi ressemble ce monde futur, lorsque les robots intelligents apprennent (en se référant à ce qui précède en concevant des algorithmes et des outils spécifiques qui définissent un processus d’apprentissage ») grâce à des algorithmes et des outils qui n’intègrent pas ou ne peuvent pas incorporer le cœur humain irrationnel, émotionnel et compatissant ? Et même si nous sommes un animal irrationnel et émotionnels, nous apprenons toujours à équilibrer les aspects rationnels et irrationnels du cerveau.
  3. Nous ne savons pas à 100% comment fonctionne le cerveau. Les «algorithmes et outils» – mèneront-ils à des robots Frankenstein sur d’autres considérations à côté du n ° 2 ci-dessus?

vlade Croyez-le ou non, mais ces questions sont posées depuis un certain temps maintenant. Le premier reconnaissable serait probablement dans les œuvres de Karel Capek (qui, après tout, a inventé le mot robot », bien que nous utilisions de nos jours android» pour ce qu’il a appelé robot), mais plus célèbre Asimov et ses lois robotiques. Et la réponse, aussi inconfortable que cela puisse être, est que si nous obtenons vraiment des renseignements », alors cela deviendra extrêmement compliqué et très probablement dangereux. Mais c’est une réponse qui n’a jamais empêché les humains de le faire de toute façon. Comme l’a écrit Terry Pratchett (je paraphrase), s’il y avait un gros bouton rouge caché dans une grotte isolée, avec un grand NE PAS APPUYER, METTRE FIN AU MONDE », il y aurait une file d’attente à l’extérieur pour appuyer dessus et voir ce qui se passe. petite écriture justanotherprogressive Alejandro MyLessThanPrimeBeef Nous ne savons pas comment fonctionne le cerveau à 100%. Nous savons que certaines personnes pensent se rapporter au monde principalement par l’intellect. Ils entrent dans une pièce, sans noter s’ils sont plus ou moins compatissants, aimants ou aimables ou autrement, plus jolis ou moches, sociables ou occupés, plus drôles ou plus sombres, plus riches ou plus pauvres, plus sportifs ou moins, mais plus intelligents ou moins intelligents . Ils sont presque comme des robots. Tout est abstrait… des équations ou des formules, ou des nombres. Des nombres comme des constantes universelles ou des profits et pertes… Et d’autres aspects de l’humanité sont laissés quelque part dans le dos… comme s’ils craignaient que les émotions, entre autres, interfèrent avec la pensée objective et rationnelle. Mais la vie est en désordre… la vie consiste à équilibrer les différents appels. Lorsque nous nous connaissons mieux et pouvons traiter la nature de façon moins destructrice, nous pouvons peut-être alors essayer de nous reproduire dans des robots. MoiAussie Nous ne savons pas comment fonctionne le cerveau à 100%. Lorsque nous nous connaissons mieux,… peut-être pouvons-nous alors essayer de nous reproduire dans des robots. L’IA n’a pas pour objectif de faire cela, tout comme les avions n’essaient pas de reproduire les oiseaux, ni les poissons sous-marins. Les machines le font différemment et feront des choses que les formes de vie ne peuvent pas, et ne pourront pas faire les choses que les formes de vie peuvent faire. Mel J’apprécie un livre intitulé Le Maître et son émissaire, par Iain McGilchrist. Il étudie les preuves neurologiques des fonctions cérébrales réparties entre les hémisphères cérébraux droit et gauche, puis cherche les effets possibles d’une telle division fonctionnelle dans la philosophie et l’art modernes. La séparation proposée est entre les processus logiques formels et le travail avec les abstractions dans l’hémisphère gauche, par opposition à la conscience gestaltiste et à la conscience situationnelle dans l’hémisphère droit. (Ces fonctions me semblent correspondre étroitement, mais peut-être pas exactement, à la pensée lente et rapide de Daniel Kahnemann.) Un effet de cette théorie est qu’elle court-circuite des questions telles que: devons-nous y penser de manière rationnelle ou émotionnelle? » Avec deux types de réflexion se déroulant simultanément dans leurs propres structures, cela cesse d’être une question ou une question. Nous pouvons, et faisons habituellement, faire les deux. Plus loin dans le livre, McGilchrist présente son propre argument neuropolitique selon lequel les sociétés occidentales accordent trop de poids à la pensée rationnelle abstraite non contrôlée par référence à la situation ou à la gestalt. L’abus de la théorie de la boîte noire par Milton Friedman, par exemple, où il déclare à juste titre qu’un modèle n’a pas besoin de partager une structure avec le phénomène qu’il modélise, puis oublie de vérifier les résultats du modèle par rapport à la réalité. Mon exemple. McGilchrist en a d’autres. Bobby Gladd Cependant, ils interagiront également avec les humains de manière parfois difficile. les humains sont clairement le problème ici, malgré le fait que l’IA soit aussi intelligente que les vers que je viens de traverser après la tempête de pluie. L’article permet également un peu de vol dans la pommade en indiquant à quel point il est peu probable et à quelle distance nous sommes des voitures autonomes pouvant fonctionner sur une véritable autoroute….

© 2024 Alexandre 101 . Powered by WordPress. Theme by Viva Themes.