Le responsable de l’IA de Microsoft a déclaré que ceux qui construisent l’IA devraient s’assurer qu’il est facile pour le public de la comprendre et a proposé sa propre analogie pour aider. fais-le.
Mustafa Suleyman, directeur général de Microsoft AI, a dit lors d’une conférence à TED 2024 que l’IA est la dernière vague de création depuis le début de la vie sur Terre et que « nous sommes dans la phase la plus rapide et la plus vague conséquente jamais.”
Suleyman a déclaré que l’industrie doit trouver les bonnes analogies pour le potentiel futur de l’IA afin de « donner la priorité à la sécurité”et « de garantir que Cette nouvelle vague sert et amplifie toujours l’humanité. » Alors que la communauté de l’IA a toujours fait référence à la technologie de l’IA comme à des « outils », a déclaré Suleyman. le terme ne rend pas compte de ses capacités.
« Pour contenir cette vague, pour placer l’action humaine en son centre et pour atténuer les inévitables conséquences involontaires susceptibles de survenir, nous devrions commencer à y réfléchir car nous pourrions créer un nouveau type d’espèce numérique », a déclaré Suleyman.
Il a également déclaré qu’il voyait un avenir dans lequel « tout » – des personnes aux entreprises en passant par le gouvernement – serait représenté par un personnage interactif, ou « une IA personnelle » qui est « infiniment compétente », « factuellement précise et fiable ».
« Si l’IA ne fournit qu’une fraction de son potentiel dans la recherche de solutions aux problèmes dans tous les domaines, des soins de santé à l’éducation en passant par le changement climatique, » la prochaine décennie sera la plus productive de l’histoire de l’humanité », a déclaré Suleyman.
Lorsqu’on lui a demandé ce qui l’empêchait de dormir la nuit, Suleyman a répondu que l’industrie de l’IA risquait de tomber dans le « piège de l’aversion au pessimisme ». alors qu’elle devrait en fait « avoir le courage d’affronter le potentiel de scénarios sombres” afin de tirer le maximum des avantages potentiels de l’IA.
“La bonne nouvelle est que si vous regardez les deux ou trois dernières années, il y a eu très, très peu d’inconvénients”, a déclaré Suleyman. “Il est très difficile de dire explicitement quel mal un LLM a causé. Mais cela ne veut pas dire que c’est ce que la trajectoire cela va se faire au cours des dix prochaines années.
Même si Suleyman a déclaré qu’il envisageait cinq à dix ans avant que les humains soient confrontés aux dangers des modèles d’IA autonomes, il estime que ces dangers potentiels il faudrait en parler maintenant.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.