Werbung
Wieso ChatGPT manchmal lügt
Künstliche Intelligenz ist in aller Munde. Und bald in allen Autos? Es scheint so: VW baut ChatGPT-Zugriff ein; und bald soll die KI autonomes Fahren übernehmen. Aber halt! Noch ist es nicht so weit. STREETLIFE checkt, was das alles bringt und wie weit das denkende Auto ist.
Die Welt der Künstlichen Intelligenz (KI) ist eine Welt der Ausrufezeichen. Weniger Staus! Weniger Unfälle! Aber auch: Maschinen bestimmen über Menschen! Totale Überwachung! Die schlechte und zugleich gute Nachricht: Ehe es so weit ist, muss KI bzw. AI (für engl. «Artificial Intelligence») noch viel lernen – sehr viel! Aber wahr ist auch: In vielen kleinen Schritten erobert KI langsam unsere Autos. Der jüngste Schritt: ChatGPT zieht ins Auto ein. Neben etlichen anderen KI-Autothemen war dies eine der grossen News zur Tech-Messe CES 2024 in Las Vegas.
Bei VW übernimmt der KI-Chatbot
Unter anderem DS und Mercedes sind dran, BMW will folgen, und bei VW wirds bereits Mitte 2024 ernst: In allen ID.3, ID.4, ID.5, ID.7, neuen Golf, Passat und Tiguan, die den Sprachassistenten IDA haben, kommt ChatGPT zum Einsatz. Wann genau? Wenn IDA – mit dem Infotainment, Navi sowie Klima gesteuert und simple Fragen geklärt werden – nicht mehr weiterweiss. Wozu? «Gespräche bereichern und Fragen beantworten» könne das System, sagt VW. Vorteil: ChatGPT versteht und spricht wie ein Mensch und kann zum Beispiel auf dem Weg nach Italien beantworten und vorlesen, welche Verkehrsregeln man dort kennen muss. Oder den Kids im Fond einfach ein Märchen erzählen. Unser Auto wird so zum digitalen, intelligenten Kumpel. Datenschutz? Der soll gewahrt sein. VW löst es so, dass über ein Extraprogramm dazwischen alles anonymisiert und danach gelöscht wird.
ChatGPT liegt leider auch mal falsch
Freilich hat der gehypte Chatbot ein Problem: Nicht alles, was ChatGPT sagt, stimmt. Wir haben gefragt, wie das Reissverschlussverfahren in der Schweiz geregelt ist. In der ersten Antwort heisst es, man solle sich bitte «frühzeitig einordnen» – das Gegenteil dessen, was die Regel bezweckt! Erst auf Rückfrage, ob das nicht falsch sei, kommt dann die korrekte Antwort (bei dichtem Verkehr «bis zur Engstelle fortbewegen»). Und eine Entschuldigung.
#VW + #ChatGPT = 🤝
— Volkswagen Group (@VWGroup) January 8, 2024
🔜 With the beginning second quarter of 2024, @volkswagen will be the first volume manufacturer to offer ChatGPT as voice control feature in many models and markets.
💡 This gives you many new opportunities which go far beyond today's voice control!#CES24pic.twitter.com/w6mMxlcEdu
Aha. So intelligent ist die KI also noch nicht. Das liegt auch daran, dass ChatGPT wild in Quellen wühlt und darauf trainiert ist, menschlich zu wirken. Heisst: Weiss ChatGPT es nicht genau, sagt die KI trotzdem was – wie ein Mensch, um nicht ahnungslos zu wirken. Dagegen hilft nur, bedacht Fragen zu formulieren und nachzufragen. Schöne neue Welt? Nun ja. Aber: Allgemeine Infos etwa über Reiseziele beantwortet ChatGPT tatsächlich exzellent.
Autonomes Fahren geht nur mit KI
Am Ende ists wie mit dem Google-Sprachassistent im Navi, auf den einige Hersteller (den Anfang hatte Volvo samt Polestar gemacht) setzen: Klappt gut – aber «intelligent» wäre ein zu grosses Wort. Nur, weil ein System lernen kann, ists noch nicht klug. Bedeutend wird KI fürs autonome Fahren werden. Alle heutigen Systeme fahren «nur» automatisiert – nach klaren Regeln oder mit spezieller KI, die im Datenstrom Muster sucht. Aber soll das Auto eines Tages völlig allein – also im echten Wortsinn autonom – das Verkehrsgewimmel meistern, geht das nur, wenn es in Echtzeit «versteht», was es tut, und mit anderen Autos kommuniziert. Und «denkt».
Intuition als Tugend im Verkehr
Das Zauberwort heisst Bauchgefühl. Der Mensch weiss intuitiv, dass der Schaumstoffblock auf der Strasse eben nur Schaumstoff ist. Für Software ist «Schaumstoff oder Beton?» eine Mammutaufgabe. Genau hier liegt die Crux: Was wir Bauchgefühl oder Intuition nennen, ist an sich Erfahrung. Diese Erfahrung kann gute KI ebenfalls sammeln. Allerdings: KI wird zwar weniger Fehler machen als wir. Doch fehlerfrei wird auch sie nicht sein.
Wie steht es eigentlich ums oft bemühte Dilemma, dass KI entscheiden müsse, ob sie beim unvermeidlichen Crash den Rentner oder das Kind totfährt? Der «Vater der KI», der im Tessin forschende Jürgen Schmidhuber, dessen lernfähige Netzwerke die Sprachbedienung unserer Smartphones möglich machten, sagt: «Das ist keine Frage der KI. Wie soll KI das lösen können, wenn schon der Mensch es nicht kann?» Ein KI-Entwickler werde die KI so «erziehen», dass sie tue, was in den meisten Fällen am meisten Sinn mache: hart bremsen. Und wann wird es so weit sein? Experten glauben: Noch vor 2030 könnte es losgehen. Aber eben: könnte.
Was ist Künstliche Intelligenz?
Die Frage tönt profan, aber die eine Definition von Künstlicher Intelligenz (KI) gibt es nicht. Wikipedia sagt, KI sei, was Maschinen intelligent mache. Doch was heisst intelligent? «Angemessen und vorausschauend in der Umgebung zu agieren.» Also auch, «Umgebungsdaten wahrzunehmen, zu reagieren, Informationen zu verarbeiten und zu speichern, Sprache verstehen und erzeugen, Probleme lösen, Ziele erreichen.»
Experten unterscheiden schwache und starke KI. Bisher gibt es schwache KI. Zum Beispiel Spam-Erkennung des Mailprogramms, dass ein oft angefahrenes Ziel erneut vom Navi vorgeschlagen wird oder auch ChatGPT. «Schwach» heisst: Die KI-Software beschränkt sich auf Teilbereiche, nutzt maschinelles Lernen und wird von Menschen trainiert. Starke KI à la Hollywood-Film, die alles kann und sich selbst programmiert? Das dauert noch.
Clevere Antworten auch ohne KI
«Intelligent» lautet das Zauberwort: Soll es nach KI tönen, aber ist es eigentlich keine, sprechen Autobauer gerne von «intelligenten» Systemen. Das können tatsächlich selbstlernende KI-Systeme sein, aber die Grenze ist fliessend und von Nutzenden kaum wahrzunehmen: Clevere Algorithmen können bereits sehr intelligent wirken. Ein Beispiel sind häufig Sprachassistenten, die sogar auf Scherzfragen antworten.
Ab und zu steckt KI drin – ein wenig, in Form der Lernfähigkeit. Oft aber sind sie einfach clever programmiert. Auch Systeme, die in den nächsten Jahren etwa über Sensorik im Lenkrad oder im Sitz Vitalwerte erfassen und warnen sollen, wenn das Herz stolpert – Ford oder Mercedes zum Beispiel sind dran – brauchen keine KI. Diese hilft zwar im Spital etwa längst bei Dingen wie der Krebszellen-Erkennung. Doch um unseren Puls auszuwerten, anhand dessen einen Notfall zu erkennen, einen automatisierten Notruf zu versenden und das Auto zu stoppen, muss Software nicht intelligent sein. Sondern nur gut geschrieben.
Werbung