
Spät am Abend.
Die Zeit ist fortgeschritten auf der Geburtstagsfeier, als das Thema auf KI und ChAT GPT kommt. Der anwesende Informatiker kommt ins Schwärmen. Er habe kürzlich für einen Kunden, einen Spa-Betreiber, den Text für dessen Homepage von CHAT GPT erstellen lassen. Ein paar Textbrocken nur habe er vorgegeben und Augenblicke später habe die KI einen fein formulierten Werbetext ausgespuckt, den er ohne Korrektur habe übernehmen können. Mindestens eine halbe Stunde habe ihm das gespart, zumal er ohnehin nicht so gut im Formulieren sei.
Er führt es vor.
Und ich gebe zu, es ist sehr beeindruckend.
Live zu verfolgen, wie aus dem Nichts heraus, nach kurzem Innehalten – nach 3 Sekunden- das gewünschte Ergebnis auf dem Bildschirm erscheint.
Der IT´ler schwärmt weiter.
Die KI sei auch in der Lage, Fotomaterial für die Homepage zu erstellen.
Bald müsse man nicht mehr irgendwelche Lizenzen für Fotos erwerben. Oder teure Fotografen beauftragen. Sondern man könne sich das gewünschte Bild generieren lassen. Ein Paar Hand in Hand. Das vor einer Bergkulisse am Horizont und dem Schwimmteich im Vordergrund in den Sonnenuntergang schaut. Dalli Klick. Ein Kinderspiel.
Klingt toll.
Ich berichte von meinen Erfahrungen mit CHAT GPT.
Erzähle von der Vielzahl falscher, erfundener Antworten.
Der IT´ler weiss, warum.
Wurzelkanalbehandlung sei nun mal ein Spezialthema.
Und die KI greift auf in ihrer Datenbank gespeicherte Informationen zurück.
Wenn also ein Thema nunmal selten sei ….
Ich antworte: “Dann erwarte ich, das die KI mir als Ergebnis zurückgibt, ich habe nicht genügend Wissen, um eine verlässliche Aussage treffen zu können.”
Der ITler erwidert: “Aber genau so sei die KI eben nicht angelegt. Sie sei programmiert, immer eine Antwort zu geben. Und wenn eben nicht genügend verlässliche Informationen in ausreichender Menge zur Verfügung stehen, dann greift die KI halt auf das zurück, WAS ihr zur Verfügung steht.
Jetzt wird mir klar.
Mit dieser Vorgehensweise kann die KI immer eine Antwort geben.
Denn egal, wie spärlich die Datenlage nunmal sich darstellt – eine Antwort und sei sie noch so unvollkommen, ist immer besser als keine Antwort. So denkt der Informatiker. Ohne Antwort kann ich nicht weitermachen. Also BRAUCHE ich eine Antwort.
Das Problem ist nur: Wann weiss man, ob man sich auf die Antwort der KI verlassen kann oder nicht ?
Es scheint, dass bei Themen, bei denen die Antwort offensichtlich ist, die KI zwar zuverlässig antwortet, wir die Antwort aber gar nicht benötigen, weil diese auf der Hand liegt.Und das bei den schwierigen Themen, also gerade dort, wo wir die Hilfe benötigen, die KI uns keine zuverlässige Antwort geben kann. Dies aber trotzdem tut.
Auf die Medizin übertragen sieht das dann möglicherweise so aus: In den einfachen medizinischen Diagnosen liegt die KI richtig, aber wenn es um seltene Besonderheiten geht, dann spinnt sich die KI eine Diagnose zurecht, generiert eine Fehldiagnose. Anstatt zu sagen, “Moment einmal, hier stimmt möglicherweise was nicht…”
Was hingegen zeichnet den erfahrenen Kliniker aus ?
Das er sich in ungewöhnlichen Situation an Besonderheiten erinnert, die von der Norm abweichen. Und damit sein menschlicher Algorithmus sich vollkommen konträr zur KI verhält.
Ich spanne den Bogen zur Endodontie.
Elektrische Längenbestimmung, Apexlokatoren.
Wir wissen, dass die Geräte heutzutage sehr genau messen.
Aber es seltene Situationen gibt, in denen das Gerät falsch misst.
Kommt 2 oder 3 mal im Jahr vor, wo das Gerät richtig viel daneben liegt.
Der erfahrenen Kliniker merkt dies.
Und die KI ?
Interpretiert die unterschiedlichen Messwerte als gegeben und bildet einen Mittelwert.
Aber ist das die korrekte Länge ?
Wenn ich 10 mal 4 mm zu lang messe, dann weiss ich, die Messungen sind nicht zu gebrauchen. Was sagt die KI in einem solchen Fall?
Neben mir sitzt mein Freund Benno, der Landmetzger.
Er erzählt, das grosse Bäckereien jetzt auch auf die KI setzen.
Die ihnen sagt, wieviele Brötchen sie zwischen 12 Uhr und 13 Uhr backen sollen.
Benno lacht: “Dafür brauche ich keine KI. Ich weiss selbst, wieviele Würste pro Tag ich in den Geschäften haben muss. Das nennt man Berufserfahrung!“
Und birgt genau das Alles nicht zwei grosse Gefahren, die KI in der Medizin betreffend ?
Berufserfahrung erlangt man durch “Machen”.
Es liegt auf der Hand, dass jemand, der eine bestimmte Tätigkeit nicht (mehr) ausübt, Fähigkeiten nicht erlangt oder diese verliert.
Ein Gehirn verhält sich im übertragenen Sinne wie ein Muskel.
Der atrophiert, wenn er nicht benutzt wird.
Kopfrechnen ?
Vor 60 Jahren verinnerlicht, dann kamen die Taschenrechner.
Rechtschreibung ? Kommasetzung?
Mit den Smartphones hinfällig geworden. Das sehen wir mittlerweile Tag für Tag. Überall. Schreibfehler in den Tageszeitungen. Im Fernsehen in Schaubildern der Tagesschau.
Und jetzt die KI als medizinischer Diagnostiker.
Herbeigesehnt von all denen, die nicht (mehr) in der Lage sind, eine klinische Anamnese durchzuführen und die richtige Diagnose zu stellen. Zum einen, weil man eine Diagnose bekommt, die man selbst nicht stellen kann. Zum anderen – wer keine adäquate Diagnose mehr stellen kann, weil er die Fähigkeiten dazu nicht erworben hat oder meint, diese nicht erwerben zu müssen, der ist natürlich froh, wenn ihm die KI nicht nur diese Diagnose per se, sondern damit auch die Verantwortung für die Entscheidung abnimmt: Gott sei Dank – ich muss keine eigenen Entscheidungen mehr treffen. Und eventuelle Fehlentscheidungen? Hab nicht ich, sondern die KI getroffen.
Eine Abwärtsspirale.
Je weniger Entscheidungen getroffen werden müssen, umso mehr gehen die Fähigkeiten, die benötigt werden, um solche Entscheidungen überhaupt treffen zu können, verloren. Und umso abhängiger werden wir von denen, die solche Entscheidungen für uns treffen.
Irgendwann kommt dann der Tipping Point.
Das wir Fehlentscheidungen der KI hinnehmen müssen, weil es keine Möglichkeiten mehr gibt, eigene Entscheidungen zu treffen. Oder niemand mehr da ist aus Fleisch und Blut, der diese Entscheidungen treffen kann. Könnte in naher Zukunft schon passieren: Wenn es auf dem Land keinen Hausarzt mehr gibt, der in der Nacht Hausbesuche macht, wenn jemand dringend krank ist. Und wenn die befragte KI dann angibt, der Erkrankte möge wegen der heftigen Kopfschmerzen erst mal Ibuprofen nehmen, weil das in 99,8 Prozent der Fälle hilft, dann stehe Gott dem Patienten mit dem gerissenen Hirmaneurysma bei.
Die KI für belanglose Werbetexte und lustige Bildchen ?
Habt Spass damit !
Für alle kritischen Entscheidungen des menschlichen Lebens – es wäre vermessen und naiv zu glauben, das dies funktioniert.
Und auf Anhieb schon gar nicht.
Der kluge Mann – setzt all dies extrem zurückhaltend und restriktiv ein.
Was macht unsere Politik ?
Ich vermute mal, das genaue Gegenteil. “Ach, was soll schon schiefgehen …”
“Das ist also das Schiff, von dem es heißt, es sei unsinkbar.” – “Es ist unsinkbar! Gott selbst könnte die “Titanic” nicht versenken!”
https://www.zdf.de/nachrichten/wirtschaft/google-ki-gefahr-hinton-100.html “Godfather of KI” warnt vor Technologie!
Sehr scharfsinnig beobachtet – Bravo! Aber die Ausnahme – entscheidend ist aber die Mehrheit, unsere sog. hochgelobte Demokratie oder KI ?! ;) schönen Abend HaWi.
Grüße aus Leipzig!