Dans des interviews et des déclarations publiques, de nombreux membres de la communauté de l’IA ont repoussé les affirmations de l’ingénieur, tandis que certains ont souligné que son histoire met en évidence comment la technologie peut amener les gens à lui attribuer des attributs humains. Mais la conviction que l’IA de Google pourrait être sensible met sans doute en évidence à la fois nos craintes et nos attentes quant à ce que cette technologie peut faire.
L’ingénieur, Blake Lemoine, aurait déclaré au Washington Post qu’il avait partagé avec Google des preuves que LaMDA était sensible, mais la société n’était pas d’accord. Dans un communiqué, Google a déclaré lundi que son équipe, qui comprend des éthiciens et des technologues, “a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations”.
Un porte-parole de Google a confirmé que Lemoine reste en congé administratif. Selon le Washington Post, il a été mis en congé pour avoir enfreint la politique de confidentialité de l’entreprise.
Lemoine n’était pas disponible pour commenter lundi.
L’émergence continue de programmes informatiques puissants formés sur des données massives a également suscité des inquiétudes quant à l’éthique régissant le développement et l’utilisation de ces technologies. Et parfois, les progrès sont considérés à travers le prisme de ce qui peut arriver, plutôt que de ce qui est actuellement possible.
Dans une interview lundi avec CNN Business, Marcus a déclaré que la meilleure façon de penser à des systèmes tels que LaMDA est comme une “version glorifiée” du logiciel de saisie semi-automatique que vous pouvez utiliser pour prédire le mot suivant dans un message texte. Si vous tapez “J’ai vraiment faim, je veux aller dans un”, cela pourrait suggérer “restaurant” comme mot suivant. Mais c’est une prédiction faite à l’aide de statistiques.
“Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente”, a-t-il déclaré.
“Ce qui se passe, c’est qu’il y a une telle course pour utiliser plus de données, plus de calcul, pour dire que vous avez créé cette chose générale qui sait tout, répond à toutes vos questions ou autre, et c’est le tambour que vous avez joué”, a déclaré Gebru. . « Alors, comment es-tu surpris quand cette personne pousse les choses à l’extrême ? »
Dans sa déclaration, Google a souligné que LaMDA a fait l’objet de 11 “examens distincts des principes de l’IA”, ainsi que de “recherches et tests rigoureux” liés à la qualité, à la sécurité et à la capacité de formuler des déclarations fondées sur des faits. “Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles”, a déclaré la société.
“Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne connaissons personne d’autre faisant des affirmations de grande envergure, ou anthropomorphisant LaMDA, comme l’a fait Blake”, a déclaré Google.