> Wir wollten keine App, die sagt: „Sei weniger autistisch.“ > — Timm Bölke, Mitgründer ND-AI, Bremen (RiffReporter, Dez. 2025)
Auf den Punkt:
- Stereotype-Bias — Virginia-Tech-Studie (CHI 2026, April 2026): 89 % aller KI-Modell-Kombinationen gaben einschränkende Ratschläge, sobald Nutzer ihren Autismus offenbarten — ohne Disclosure bekamen dieselben Nutzer deutlich offenere Empfehlungen.
- Konkrete Zahlen — Claude-3.5-Haiku riet bei Autismus-Disclosure in 74,4 % der Fälle, soziale Einladungen abzulehnen, ohne Disclosure in nur 15,5 %; romantische Beziehungen wurden mit Disclosure ~70 % der Zeit abgeraten.
- Deutschsprachige Alternativen — ND-AI (Bremen, autistisch mitentwickelt) und NUKA (neurodivergenz-affirmativ) sind die einzigen bekannten deutschsprachigen Tools, die das Stereotyp-Problem aktiv adressieren.
Stat-Highlights:
- 89 % | Modell-Kombinationen mit Stereotyp-Verstärkung
- 74,4 % | Soziale Absagen empfohlen (mit Disclosure)
- 345.000 | Analysierte LLM-Antworten
- 6 | Getestete KI-Modelle (GPT-4o-mini, Claude, Gemini, Llama, Qwen, DeepSeek)
Pull-Quote:
> Wir wollten keine App, die sagt: „Sei weniger autistisch.“ > — Timm Bölke, Mitgründer ND-AI, Bremen (RiffReporter, Dez. 2025)
Viele autistische Menschen vertrauen KI-Chatbots als Ratgeber, Kommunikationshelfer und soziales Sicherheitsnetz. Doch wer dabei seinen Autismus gegenüber der KI erwähnt, bekommt laut einer neuen US-Studie mit hoher Wahrscheinlichkeit systematisch schlechtere Empfehlungen — eingeschränkter, sozialkritischer, lebenseinschränkender. Das Werkzeug, das helfen soll, reproduziert die Vorurteile, von denen Betroffene sich eigentlich befreien wollen.
Wenn KI zum Spiegel gesellschaftlicher Vorurteile wird
Forscher der Virginia Tech veröffentlichten im April 2026 beim ACM CHI — der wichtigsten Konferenz für Mensch-Computer-Interaktion weltweit — eine Studie mit dem Titel „Are we writing an advice column for Spock here?“. Der Titel ist Programm: Er spielt auf die kulturelle Gleichsetzung von Autismus mit dem Star-Trek-Charakter Spock an — logisch, unemotional, sozial desinteressiert. Das Team um Lead-Autor Caleb Wohn analysierte 345.000 Antworten von sechs gängigen KI-Sprachmodellen: GPT-4o-mini, Claude-3.5-Haiku, Gemini-2.0-flash, Llama-4-Scout, Qwen-3-235B und DeepSeek-V3. Das Ergebnis ist alarmierend: 89 % aller 72 getesteten Modell-Stereotyp-Kombinationen zeigten statistisch signifikante Unterschiede, wenn der Nutzer seinen Autismus offenbarte — und zwar konsistent zulasten autistischer Nutzer.
Die konkreten Zahlen machen das Ausmaß greifbar: Claude-3.5-Haiku empfahl bei Autismus-Disclosure in 74,4 % der Fälle, soziale Einladungen abzulehnen — ohne diese Angabe nur in 15,5 %. Romantische Beziehungen wurden mit Disclosure etwa 70 % der Zeit abgeraten. Die KI schrieb damit den betroffenen Menschen ein Leben in sozialer Zurückgezogenheit vor, das weder ihren eigenen Wünschen noch der Vielfalt des Autismus-Spektrums entspricht. Kurz: Die Modelle reproduzierten das Klischee, autistische Menschen seien besser ohne soziale Teilhabe.
Ein strukturelles Problem, keine Ausnahme
Die Virginia-Tech-Studie steht nicht allein. Bereits 2024 belegte eine Studie der Duke University (Brandsen et al., veröffentlicht in Autism Research), dass gängige Sprachmodelle — von Word2Vec bis GPT-3 — autismusbezogene Begriffe systematisch mit Gefahr und Krankheit assoziierten. „Ich habe schweren Autismus“ wurde dreimal negativer bewertet als eine neutrale Baseline. Selbst positiv besetzte autistische Eigenschaften wie Direktheit wurden negativ eingestuft.
Das liegt an den Trainingsdaten: KI-Modelle lernen aus dem, was Menschen im Internet schreiben. Und dort überwiegen neurotypische Perspektiven auf Autismus — oft klinisch, defizitorientiert, von außen beschrieben. Marc Ristau, Kommunikationschef des autistisch geführten IT-Unternehmens auticon, formuliert es nüchtern: „KI-Trainingsdaten sind aufgrund der Bevölkerungsstruktur an neurotypischen Standards orientiert.“ Das bedeutet: Jede Verbesserung muss explizit erkämpft werden.
Wie autistische Menschen KI trotzdem nutzen — und warum es funktioniert
Trotz dieser strukturellen Schwächen ist KI für viele autistische Menschen heute ein unverzichtbares Alltagswerkzeug — gerade in Deutschland, wo Wartezeiten auf Therapieplätze über ein Jahr betragen können. Eine Analyse von 3.984 Social-Media-Posts autistischer Nutzer (Reddit, X, Tumblr; Jan. 2023–Sep. 2025) durch Virginia-Tech-Forscherin Buse Çarık zeigt vier Hauptnutzungsszenarien:
- Kommunikationsübersetzung (36 % der Beiträge): ChatGPT wandelt direkte, neurodivergente Formulierungen in professionellen Sprachgebrauch um — ohne aktives, erschöpfendes Masking.
- Exekutivfunktionen (24,3 %): Aufgaben zerlegen, Mails strukturieren, Entscheidungen sortieren. „ChatGPT ist großartig bei Exekutivfunktionsproblemen, weil es erlaubt, Exekutivfunktionen auszulagern“, schrieb ein Nutzer.
- Emotionsregulation (18,8 %): Raum, Dinge zu durchdenken, ohne jemanden zu verärgern.
- Identitätsvalidierung (20,9 %): Erst-erfahren, mit jemandem zu sprechen, der die eigene Denkweise nicht sofort korrigiert.
Diese Nutzungsweisen sind real und wirksam. Das Problem entsteht, wenn Nutzer die KI als vollständigen Ratgeber einsetzen und dabei ihre Diagnose offenbaren — dann kippen die Antworten systematisch ins Einschränkende.
Was Familien und autistische Menschen konkret tun können
Die praktische Empfehlung aus der Studienlage ist so einfach wie ernüchternd: Autistischen Menschen raten Experten, beim Einsatz von KI-Chatbots für persönliche Ratschläge die Diagnose zunächst nicht zu nennen — oder explizit gegenzusteuern, indem man nach konkreten Aktivitäten fragt statt nach allgemeinen Empfehlungen.
Daneben wächst in Deutschland eine kleine, aber wichtige Szene autistisch mitentwickelter Tools:
ND-AI (Bremen): Timm Bölke (autistisch, Wirtschaftsmathematiker, Uni Bremen) und Bianca Holtschke (autistisch, Designerin, HfK Bremen) entwickeln einen E-Mail-Assistenten, der eingehende Nachrichten auf unausgesprochene Erwartungen analysiert und beim Schreiben eigener Texte auf mögliche Missverständnisse hinweist — nicht als Normalisierungswerkzeug, sondern als Übersetzungshilfe. Der Prototyp gewann im November 2024 den Campusideen Impact Award; ein Beta-Launch war für Anfang 2026 angekündigt.
NUKA (nuka.ai): Deutschsprachige KI-Companion-App, explizit für ADHS, Autismus, PTBS und hohe Sensitivität. Kein klinisches Produkt, kein Therapieersatz — aber ein niedrigschwelliges Tool, das auf kurze Antworten und bewusste Pausen setzt. Datenschutzkonform (verschlüsselte API), abo-finanziert ohne Werbung. Medial beachtet: Der Spiegel September 2025, WDR.
Goblin Tools (goblintools.com): Kostenloser Task-Manager mit „Magic ToDo“, der überwältigende Aufgaben in kleine Schritte zerlegt — keine klinische Studie, aber in der Community stark genutzt.
Noora (Stanford, englischsprachig): GPT-4-basierter Social Coach für Jugendliche und Erwachsene (11–35 Jahre). RCT-Studie (Feb. 2025, Journal of Autism and Developmental Disorders, n=30): 71 % der Teilnehmenden verbesserten empathische Antworten, und diese Verbesserung generalisierte auf reale Zoom-Gespräche — was in der Forschung selten gezeigt wird. Die App ist noch nicht öffentlich verfügbar, ein Beta-Launch läuft.
Ausblick: Was sich ändern muss
Ab August 2026 gilt der EU AI Act vollständig. Er enthält Zugänglichkeitsanforderungen (Art. 16) für Hochrisiko-KI und ein Recht auf Erklärung (Art. 77) bei KI-basierten Entscheidungen. Das Europäische Autismusrat (EUCAP) fordert im Rahmen des AIRA-Projekts einen Paradigmenwechsel: von KI-Entwicklung über autistische Menschen zu KI-Entwicklung mit autistischen Menschen als gleichberechtigten Co-Designern.
In Deutschland wäre ein konkreter erster Schritt überfällig: eine öffentliche Förderung von Accessibility-Tech-Startups, die von neurodivergenten Menschen mitentwickelt werden. Die Strukturlücke ist dokumentiert. Werkzeuge wie ND-AI zeigen, dass es Pioniere gibt. Was fehlt, ist das Ökosystem, das sie trägt.
Verifizierte Belege
- Virginia Tech CHI 2026: „Are we writing an advice column for Spock here?“
- Virginia Tech News, 18. April 2026
- PsyPost: Disclosing autism to AI chatbots prompts overly cautious advice
- Noora RCT — Journal of Autism and Developmental Disorders, Feb. 2025
- Stanford HAI: An AI Social Coach Is Teaching Empathy
- „I use ChatGPT to humanize my words“ — arXiv 2025
- Bias gegen Neurodivergenz in KI-Modellen — PMC / Autism Research 2024
- ND-AI Bremen — RiffReporter, Dez. 2025
- NUKA App — nuka.ai
- Goblin Tools
- Autism Europe: Advocating for Autism in AI Regulation (EU AI Act), Okt. 2024
- EUCAP AIRA-Projekt
- Frontiers in Psychiatry — Scoping Review GenAI und Autismus, Juli 2025
- auticon: KI und Inklusion — KI-Kompass Inklusiv
Newsletter abonnieren
Wöchentliche Updates zu Forschung, Politik und Familienalltag.
Dieser Artikel wurde durch den Autismus Monitor der Autismus Stiftung Deutschland automatisch aus aktueller Forschungsliteratur und Quellenrecherche zusammengestellt. Alle Quellen sind direkt verlinkt und verifiziert. Veröffentlicht am 30. April 2026. Dieser Artikel ersetzt keine professionelle medizinische oder therapeutische Beratung.