Künstliche Intelligenz im Alltag: Längst unter uns

Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen.

Portrait von Daniela Kolbe vor EU-Fahne

Daniela Kolbe ist Vorsitzende der Enquetekommission Künstliche Intelligenz Foto: Metodi Popow/imago

BERLIN taz | Die Enquetekommission „Künstliche Intelligenz“ des Bundestags hat gut zwei Jahre nach ihrem Start ein Ergebnis vorgelegt hat. Hier Anwendungsbeispiele aus dem Alltag.

Medizin: Wiederkehrende Muster zu erkennen – das ist eine der Stärken von künstlicher Intelligenz. Und diese Stärke ist auch in der Medizin gefragt, zum Beispiel bei der Erkennung von Tumoren. So untersuchte eine Studie im vergangenen Jahr, wie sich eine KI zur Erkennung von schwarzem Hautkrebs im Vergleich mit Ärz­t:in­nen schlägt. Haut­ärz­t:in­nen von zwölf Universitätskliniken aus Deutschland und ein interdisziplinär programmierter Algorithmus analysierten dafür 100 Bilder von auffälligen Hautstellen.

Das Ergebnis: 7 der 157 Hautärzt:innen schnitten besser ab als der Algorithmus. 14 erzielten gleich gute Ergebnisse und 136 hatten eine schlechtere Bilanz als die KI. Die menschliche Diagnose macht das nicht überflüssig, das betonen auch die Heidelberger Wissenschaftler:innen. Im Gegenteil erhöht die Kombination aus menschlicher und technischer Analyse die Wahrscheinlichkeit einer richtigen Diagnose.

Sprache: Das automatische Übersetzen von Texten in andere Sprachen fiel – zumindest wenn die Ergebnisse brauchbar sein sollten – lange unter Science-Fiction. Die Wende brachten neuronale Netze, eine Form der künstlichen Intelligenz. Die neuronalen Netze werden mit Daten aus Quell- und Zielsprache trainiert. Und sie lernen bei jeder Übersetzung dazu.

Im Fall Google Translate machten die Ent­wick­le­r:innen publik, dass eine Übersetzung auch Lerneffekte für Sprachen hervorruft, in denen es überhaupt keine Trainingsdaten gab. Wie das sein kann? Die Entwickler:innen vermuten, dass das System eine Art interne Universalsprache gelernt hat und als Übersetzungsbrücke nutzt. Das Beispiel zeigt damit gleichzeitig, dass KI häufig eine Blackbox ist, bei der selbst die Entwickler:innen nicht genau wissen, was im Inneren passiert.

Haushalt: Heizungsthermostate, bei denen sich einstellen lässt, wie viel Grad warm es zu welcher Uhrzeit in einem Raum sein soll, gibt es schon seit Jahren. Selbstlernende Thermo­state gehen einen Schritt weiter: Die Nutzer:innen müssen hier ihre Temperaturvorlieben bezogen auf Uhrzeit und Wochentag nicht einprogrammieren. Das Thermostat lernt anhand des Nutzungsverhaltens selbst, wie warm es die Bewohner:innen zu welcher Uhrzeit gerne hätten.

Das dauert in der Regel etwa eine Woche und hat den Vorteil, dass Änderungen im Verhalten nicht zu manuellem Umprogammieren führen müssen. Der Nachteil dabei: In einem vernetzten – und damit potenziell angreifbaren – Gerät liegen persönliche Daten, die unter anderem Rückschlüsse darauf zulassen, wann die Bewohner:innen zu Hause sind.

Umwelt: Waldbrände und ihre Bekämpfung werden mit dem Klimawandel zunehmend zum Problem. Daher haben schwedische Institutionen im vergangenen Jahr begonnen, Waldbrände mittels Satellitendaten und Methoden des maschinellen Lernens zu überwachen. Der Algorithmus kann etwa den Rauch auf den Aufnahmen herausrechnen und so genauer bestimmen, wo und wie groß ein Brand ist. Das System wurde auch in Mosambik eingesetzt, um die Ausmaße einer Flutkatastrophe überblicken zu können.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.