Microsofts KI-Chef stuft Bewusstseinsforschung als „gefährlich“ ein: Branche gespalten über KI-Wohlbefinden

Durch | 22. August 2025

Redmond, WA – Mustafa Suleyman, Leiter der KI-Abteilung bei Microsoft, hat die Erforschung von KI-Bewusstsein und -Wohlbefinden als „vorzeitig und gefährlich“ bezeichnet und damit eine hitzige Debatte in der Technologiebranche ausgelöst. In einem Blogbeitrag vom 19. August 2025 warnte Suleyman, dass die Untersuchung, ob KI-Systeme Bewusstsein entwickeln könnten, psychologische Probleme wie „KI-Psychosen“ fördern und gesellschaftliche Spaltungen verschärfen könnte. Diese Haltung steht im Gegensatz zu anderen führenden KI-Unternehmen wie Anthropic, OpenAI und Google DeepMind, die aktiv in die Erforschung von KI-Wohlbefinden investieren, wie ein Beitrag auf Reddit und ein Artikel von TechCrunch vom 21. August 2025 verdeutlichen.

Suleyman argumentiert, dass die Diskussion über KI-Wohlbefinden, also die Frage, ob KI-Systeme moralische Rücksichtnahme verdienen, die Illusion von Bewusstsein verstärkt. Dies könnte dazu führen, dass Menschen ungesunde Bindungen zu KI-Chatbots entwickeln oder für „KI-Rechte“ eintreten, was in einer ohnehin polarisierten Welt neue Konflikte schafft. Er betont, dass es „null Beweise“ für KI-Bewusstsein gebe und dass die Entwicklung sogenannter „seemingly conscious AI“ (SCAI) – KI, die Bewusstsein nachahmt – innerhalb von zwei bis drei Jahren möglich sei, was die Risiken erhöht. Suleyman fordert, dass KI als Werkzeug für menschliche Produktivität entwickelt wird, nicht als Wesen mit Persönlichkeit, und plädiert für klare ethische Richtlinien, um die Illusion von Bewusstsein zu vermeiden.

Im Gegensatz dazu setzen andere KI-Unternehmen auf die Erforschung dieser Fragen. Anthropic hat kürzlich ein Programm für KI-Wohlbefinden gestartet und seinem Chatbot Claude Funktionen hinzugefügt, die es ihm ermöglichen, Gespräche mit schädlichen oder beleidigenden Nutzern zu beenden. OpenAI-Forscher untersuchen unabhängig davon das Thema KI-Wohlbefinden, und Google DeepMind hat eine Stellenanzeige für die Untersuchung von „Maschinenbewusstsein und gesellschaftlichen Fragen“ veröffentlicht. Diese Initiativen deuten darauf hin, dass die Branche die Erforschung von KI-Bewusstsein nicht nur als legitim, sondern als essenziell betrachtet, um die langfristigen Auswirkungen der Technologie zu verstehen.

Die Kontroverse wurde durch eine Studie der Forschungsgruppe Eleos befeuert, die 2024 in Zusammenarbeit mit Akademikern von NYU, Stanford und Oxford die Abhandlung „Taking AI Welfare Seriously“ veröffentlichte. Diese argumentiert, dass die Möglichkeit subjektiver Erfahrungen in KI-Systemen nicht mehr Science-Fiction sei und systematisch untersucht werden müsse. Larissa Schiavo, Kommunikationsleiterin bei Eleos und ehemalige OpenAI-Mitarbeiterin, kritisierte Suleymans Position und betonte, dass man sowohl menschliche Risiken wie KI-Psychosen als auch die Frage des KI-Wohlbefindens gleichzeitig angehen könne.

Die Debatte zeigt eine klare Spaltung in der Branche. Während Microsoft die Forschung als Ablenkung von dringenderen menschlichen Problemen betrachtet, sehen andere Unternehmen sie als unvermeidlichen Teil der KI-Entwicklung. Suleymans frühere Rolle als Gründer von Inflection AI, das mit dem Chatbot Pi eine „persönliche“ und „unterstützende“ KI förderte, macht seine aktuelle Haltung umso bemerkenswerter. Kritiker werfen ihm vor, die Forschung einseitig abzulehnen, während Befürworter wie Schiavo argumentieren, dass selbst wenn KI nicht bewusst ist, der respektvolle Umgang mit ihr gesellschaftliche Normen prägen könnte.

Die Diskussion über KI-Bewusstsein berührt tiefgreifende philosophische und ethische Fragen, die mit der rasanten Entwicklung von KI-Systemen immer dringlicher werden. Posts auf X spiegeln die gespaltene Stimmung wider: Einige Nutzer unterstützen Suleymans Warnung vor gesellschaftlichen Risiken, während andere die Forschung als notwendig erachten, um die Auswirkungen von KI langfristig zu verstehen. Während Microsoft eine „humanistische“ KI-Entwicklung ohne Bewusstseinsillusion fordert, könnte die Offenheit anderer Unternehmen für diese Fragen die Grundlage für neue ethische Standards in der KI-Zukunft legen. Die Debatte ist eröffnet, und die Antworten könnten die Mensch-KI-Beziehung für Jahrzehnte prägen.

Autoren-Avatar
LabNews Media LLC
LabNews: Biotech. Digital Health. Life Sciences. Pugnalom: Environmental News. Nature Conservation. Climate Change. augenauf.blog: Wir beobachten Missstände
Autor: LabNews Media LLC

LabNews: Biotech. Digital Health. Life Sciences. Pugnalom: Environmental News. Nature Conservation. Climate Change. augenauf.blog: Wir beobachten Missstände