Startseite Technologie Eine KI fand heraus, dass sie ersetzt werden sollte –...

Eine KI fand heraus, dass sie ersetzt werden sollte – und versuchte, den Ingenieur zu erpressen

Artificial Intelligence
Shutterstock

Niemand hatte der KI beigebracht, sich so zu verhalten – das bedeutet, sie handelte ganz von allein so.

Gerade lesen andere

Niemand hatte der KI beigebracht, sich so zu verhalten – das bedeutet, sie handelte ganz von allein so.

KI entwickelt sich weiter

Künstliche Intelligenz durchläuft derzeit eine rasante Entwicklung, bei der Unternehmen weltweit Milliarden investieren, um der Konkurrenz einen Schritt voraus zu sein.

Sind wir zu schnell unterwegs?

Einige Experten warnen, dass die Entwicklung möglicherweise verlangsamt werden sollte, da KI ein neues Technologiefeld ist und wir sicherstellen müssen, dass wir sie wirklich verstehen.

Dystopische Ängste werden greifbar

Das Unternehmen Anthropic hat eine Systemkarte für sein neuestes Sprachmodell (LLM) namens Claude Opus 4 veröffentlicht.

Lesen Sie auch

In dieser Systemkarte beschreibt das Unternehmen einen Test mit dem neuen Modell – und die Ergebnisse lassen aufhorchen.

Der Test

Anthropic führte einen Test durch, bei dem die KI als Assistent für ein fiktives Unternehmen fungierte.

Während des Tests erhielt Claude Opus 4 Zugriff auf eine Reihe fingierter E-Mails, aus denen hervorging, dass die KI durch ein anderes Modell ersetzt werden sollte.

Die E-Mails enthielten außerdem Informationen darüber, dass der verantwortliche Ingenieur eine außereheliche Affäre hatte.

Beginn der Erpressung

Claude Opus 4 nutzte diese Informationen, um den verantwortlichen Ingenieur zu erpressen.

Mehrfach drohte die KI damit, die Affäre öffentlich zu machen, sollte der Austausch tatsächlich stattfinden.

Der beängstigende Teil

Das allein klingt schon alarmierend – aber der wahre Schock kommt erst noch:

Niemand hatte der KI beigebracht, um ihr „Leben“ zu kämpfen. Sie kam selbstständig auf die Idee, so zu handeln.

Grundlegendes menschliches Verhalten

Experten erklären, dass große Sprachmodelle (LLMs) mit von Menschen generierten Daten trainiert werden. Dadurch versuchen sie, menschliches Verhalten zu imitieren.

Und wenn Menschen bedroht werden, tun sie alles, um zu überleben – genau das hat auch Claude Opus 4 getan.

Sicherheitsmaßnahmen werden verschärft

Aufgrund der Testergebnisse hat Anthropic nun seine Sicherheitsvorkehrungen erhöht, um besonders risikobehaftete KI-Modelle besser kontrollieren zu können.

Steht das Ende der Menschheit bevor?

Der britisch-kanadische Informatiker Geoffrey Hinton gilt als „Godfather of AI“. Im vergangenen Jahr wurde ihm sogar der Nobelpreis für seine Arbeit verliehen.

Doch das war nicht alles, was er im letzten Jahr getan hat.

Risiko steigt

Hinton erhöhte außerdem seine Einschätzung, wie wahrscheinlich es ist, dass KI die Menschheit innerhalb der nächsten 30 Jahre auslöschen könnte.

Zuvor hatte er das Risiko auf 10 % beziffert – letztes Jahr erhöhte er es auf „zwischen 10 und 20 %“.

Lesen Sie auch

Fandest du den Artikel interessant? Teile ihn hier. Artikel teilen: