Les cofondateurs d’Anthropic affirment que leurs modèles d’IA tirent les leçons des méfaits des médias sociaux

Daniela et Dario Amodei ont parlé de leur mission de rendre une IA plus sûre et plus responsable

Nous pouvons gagner une commission sur les liens sur cette page.
Image de l'article intitulé Les cofondateurs d’Anthropic affirment que leurs modèles d’IA tirent les leçons des méfaits des médias sociaux
Photo: Pavlo Gonchar/SOPA Images/LightRocket (Getty Images)

Là où la mission d’OpenAI s’est concentrée sur la mise à l’échelle de l’IA, son rival Anthropic s’est concentré sur la sûreté et la sécurité. Et ses cofondateurs, ses frères et sœurs. et Daniela et Dario Amodei, anciens employés d’OpenAI, affirment que leurs inquiétudes concernant le potentiel de préjudice de l’IA proviennent de l’observation de l’évolution d’autres technologies.

Publicité

“Nous avons le sentiment très fortement qu’il y a des leçons à tirer des vagues technologiques ou des innovations précédentes”, a déclaré Daniela Amodei à Brad de Bloomberg. Stone lors d’une interview au Bloomberg Technology Summit jeudi. sur des choses comme les réseaux sociaux et dites : « Wow, vous savez, il y a eu beaucoup de bien qui en ont résulté, mais De nombreux dommages ont également été causés par cette technologie.

« Que vous ayez ou non pu les anticiper à l’avance, vous savez, c’est difficile à dire, mais je pense que nous essayons. être les acteurs les plus responsables que nous peut être et réfléchir aux quelles sont les externalités potentielles qui pourraient être causées accidentellement par ce ce technologie », a-t-elle déclaré.

Publicité

Les risques de l’IA générative sont devenus plus clairement Au cours de la dernière année, de plus en plus de chatbots provenant d’un plus grand nombre d’entreprises ont été mis en ligne. Le Copilot de Microsoft a suggéré à un utilisateur de s’automutiler, a créé ChatGPT d’OpenAI. de fausses recherches juridiques et Gemini de Google ont créé des images historiquement inexactes, pour ne citer que quelques exemples. Pendant ce temps, les deepfakes de célébrités, de politiciens, et les journalistes ont été utilisés pour calomnier leurs victimes et semer la désinformation.

Publicité

L’Amodeis a quitté OpenAI en 2020 des inquiétudes excessives quant au fait que les technologies d’intelligence artificielle générative se développent trop rapidement sans garanties adéquates, et ils voulaient construire un modèle plus fiable. Ils ont travaillé pour faire c’est exactement cela avec le chatbot d’Anthropic, Claude, qui se présente comme un outil « sûr, précis et sécurisé ». La dernière itération du produit d’Anthropic, Claude 3 a été surnommé l’un des modèles d’IA les plus puissants sinon

Publicité

le

la plus puissante, Amodeis prétendant qu’elle peut surpasser ChatGPT-4. La start-up est soutenue par Amazon et Google. L’« IA constitutionnelle » d’Anthropic, un ensemble de règles pour la formation des systèmes d’IA, aide à garantir que les modèles sont formés pour éviter les réponses toxiques et discriminatoires. De tels efforts, affirment les Amodeis, exercent une pression sur l’industrie dans son ensemble pour qu’elle crée des modèles plus sûrs et plus responsables.« Nous avons été les pionniers de ce concept de

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité