Lemoine arbeitete für eine verantwortliche Organisation für künstliche Intelligenz bei Google, und im Rahmen seiner Arbeit begann er im Herbst mit LaMDA, dem künstlichen Intelligenzsystem des Unternehmens zum Erstellen von Chatbots, zu sprechen. Er kam zu der Überzeugung, dass die Technologie nach der Aufzeichnung bewusst war, um zu testen, ob die KI diskriminierende oder Hassreden verwenden könnte.
In einer Erklärung sagte Google-Sprecher Brian Gabriel, das Unternehmen nehme die KI-Entwicklung ernst und habe LaMDA elf Mal überprüft sowie ein Forschungspapier veröffentlicht, in dem die Bemühungen um eine verantwortungsvolle Entwicklung beschrieben werden.
„Wenn ein Mitarbeiter Bedenken hinsichtlich unserer Arbeit äußert, wie es Blake getan hat, prüfen wir sie umfassend“, fügte er hinzu. „Wir haben Blakes Behauptungen, LaMDA sei sensibel, als völlig unbegründet empfunden und mit ihm mehrere Monate daran gearbeitet, dies zu klären.“
Die Diskussionen führe ich auf die offene Unternehmenskultur zurück.
„Es ist bedauerlich, dass Blake sich trotz seiner langjährigen Beschäftigung mit diesem Thema immer noch dafür entscheidet, klare Beschäftigungs- und Datensicherheitsrichtlinien zu verletzen, die die Notwendigkeit des Schutzes von Produktinformationen beinhalten“, fügte Gabriel hinzu. „Wir werden unsere rigorose Entwicklung von Sprachmodellen fortsetzen und wünschen Blake alles Gute.“
Das Schießen von Lemoine wurde erstmals in gemeldet Big Tech-Newsletter.
Zitrone Interviews mit Lambda Es löste eine umfangreiche Diskussion über die jüngsten Fortschritte in der künstlichen Intelligenz, ein allgemeines Missverständnis darüber, wie diese Systeme funktionieren, und die Verantwortung von Unternehmen aus. Google hat die Leiter seiner ethischen KI-Abteilung, Margaret Mitchell, gefeuert Timnit Gibrunachdem Hüten Sie sich vor Gefahren mit dieser Technologie verbunden.
LaMDA verwendet die fortschrittlichsten großen Sprachmodelle von Google, eine Art künstlicher Intelligenz, die Text erkennt und erstellt. Forscher sagen, dass diese Systeme Sprache oder Bedeutung nicht verstehen können. Aber sie können täuschende Sprache erzeugen, die wie menschliche Sprache aussieht, weil sie auf riesige Datenmengen trainiert sind, die aus dem Internet gecrawlt wurden, um das nächstwahrscheinlichste Wort in einem Satz vorherzusagen.
Nachdem LaMDA mit Lemoine über die Figur und ihre Rechte gesprochen hatte, begann er mit weiteren Nachforschungen. Im April teilte er CEOs ein Google-Dokument mit dem Titel „Ist LaMDA sensibel?“ mit. Dazu gehörten einige seiner Gespräche mit LaMDA, in denen er behauptete, bei Bewusstsein zu sein. Zwei Google-Manager prüften seine Anschuldigungen und wiesen sie zurück.
Lemoine wurde zuvor im Juni wegen Verstoßes gegen die Vertraulichkeitsrichtlinie des Unternehmens in bezahlten Verwaltungsurlaub versetzt. Der Ingenieur, der den größten Teil seiner sieben Jahre bei Google damit verbracht hat, an proaktiver Forschung zu arbeiten, einschließlich Personalisierungsalgorithmen, sagte, er erwäge die Möglichkeit, sein eigenes KI-Unternehmen zu gründen, das sich auf kollaborative Videospiele zum Geschichtenerzählen konzentriert.
More Stories
JPMorgan geht davon aus, dass die Fed ihren Leitzins in diesem Jahr um 100 Basispunkte senken wird
Die Aktien des Chipriesen für künstliche Intelligenz Nvidia gaben trotz seines Rekordumsatzes von 30 Milliarden US-Dollar nach
Nasdaq fällt, da die Anleger auf die Geschäftsergebnisse von Nvidia warten