OpenAI-co-founder-Ilya-Sutskever-new-startup-safe-superintelligence-ai-artificial-intelligence-agi-2048x1374 (1)

OpenAI – neues Startup strebt „sichere Superintelligenz“ an

Ilya Sutskever, ehemaliger Chefwissenschaftler bei OpenAI, hat sein nächstes großes Projekt bekannt gegeben, nachdem er das von ihm mitgegründete KI-Forschungsunternehmen im Mai verlassen hat.

Zusammen mit seinem OpenAI-Kollegen Daniel Levy und Apples ehemaligem KI-Leiter Daniel Gross hat das Trio Safe Superintelligence Inc. (SSI) gegründet, ein Startup, das sich ausschließlich auf den Aufbau sicherer superintelligenter Systeme konzentriert.

Die Gründung von SSI folgt auf die kurze Entlassung von OpenAI-CEO Sam Altman im November 2023, bei der Sutskever eine zentrale Rolle spielte, bevor er später sein Bedauern über die Situation ausdrückte.

In einer Nachricht auf der Website von SSI erklären die Gründer:

„Wir betrachten Sicherheit und Fähigkeiten gemeinsam als technische Probleme, die durch revolutionäre Technik und wissenschaftliche Durchbrüche gelöst werden müssen. Wir planen, die Fähigkeiten so schnell wie möglich voranzutreiben und gleichzeitig sicherzustellen, dass unsere Sicherheit immer an der Spitze bleibt. Auf diese Weise können wir in Ruhe skalieren.

Unser einzigartiger Fokus bedeutet, dass wir nicht durch Management-Overhead oder Produktzyklen abgelenkt werden, und unser Geschäftsmodell bedeutet, dass Sicherheit, Schutz und Fortschritt von kurzfristigen kommerziellen Zwängen isoliert sind.“

Sutskevers Arbeit bei SSI stellt eine Fortsetzung seiner Bemühungen bei OpenAI dar, wo er Teil des Superalignment-Teams war, das mit der Entwicklung von Kontrollmethoden für leistungsstarke neue KI-Systeme beauftragt war. Diese Gruppe wurde jedoch nach Sutskevers viel beachtetem Abgang aufgelöst.

SSI zufolge wird das Unternehmen sichere Superintelligenz „auf direktem Weg, mit einem Fokus, einem Ziel und einem Produkt“ anstreben. Dieser einzigartige Fokus steht im Gegensatz zu der Diversifizierung, die in den letzten Jahren bei großen KI-Laboren wie OpenAI, DeepMind und Anthropic zu beobachten war.

Nur die Zeit wird zeigen, ob Sutskevers Team substanzielle Fortschritte bei seinem hehren Ziel einer sicheren superintelligenten KI machen kann. Kritiker argumentieren, dass die Herausforderung sowohl eine Frage der Philosophie als auch der Technik sei. Aufgrund der Herkunft der SSI-Gründer werden ihre Bemühungen jedoch mit großem Interesse verfolgt.

Tags: No tags

Leave A Comment

Your email address will not be published. Required fields are marked *