Natürlich sind nicht azurblaue Risiken sondern Risiken in der Azure Cloud gemeint. Eine künstliche Intelligenz (KI) kann das wissen, muss es aber nicht.
Auch wir arbeiten mit KI-gestützten Tools wie ChatGPT, Deepl oder Grammarly. KI ist großartig. Sie vereinfacht unsere Arbeit immens. Du sparst Kosten, weil wir zum Beispiel bei Übersetzungen weniger Aufwand haben. Aber KI versteht nicht unbedingt, was du sagen willst. Deshalb ist es wichtig, das Ergebnis einer KI-Übersetzung oder Recherche sorgfältig zu prüfen.
KI folgt oft einer bestimmten, manchmal sehr eigenen Logik. Zwar lernt es mit der Zeit, erweitert die Informationsbasis und verbessert die Algorithmen. Allerdings ist die künstliche Intelligenz (noch) nicht mit dem Synapseninferno im menschlichen Gehirn vergleichbar. Und dann kann es eben passieren, dass Risiken in Blau statt in der Wolke bewertet werden.
Auch spielt das Trainingsmaterial eine entscheidende Rolle. Je mehr Quellen und unterschiedliche Aussagen zur Verfügung stehen, desto schwieriger wird es für eine so genannte general Purpose AI die Wahrheit herauszufinden. Sie beginnt unter Umständen zu halluzinieren. Stehen der KI zu wenige oder einseitige Informationen zur Verfügung, ist das auch problematisch. Das Phänomen kennen wir von Filterblasen, auch Echokammern genannt. KI reproduziert eben auch nur das, was sie vorher aus den ihr zur Verfügung stehenden Informationen gelernt hat.
Die Katze ist tot. Oder nicht. Oder fast.
Richtig gefährlich kann es werden, wenn KI von KI abschreibt. Wir haben das mit einer sehr konkreten Frage zu einem zugegebenermaßen sehr technischen Thema ausprobiert. Auf die Frage, was Quantencomputing ist, antwortet z. B. ChatGPT: „Das Besondere an Qubits ist, dass sie nicht nur 0 und 1 darstellen können, sondern auch eine Überlagerung beider Zustände gleichzeitig. Das bedeutet, dass ein Qubit gleichzeitig 0 und 1 sein kann, dank einer Eigenschaft, die Superposition genannt wird.“ Dies ist so auch in einem Kompendium von Spektrum der Wissenschaft veröffentlicht. Wir wissen nicht, wer von wem abgeschrieben hat. Aber es ist einfach nicht richtig.
Das besondere an Quantencomputern ist die Möglichkeit, innerhalb kürzester Zeit eine Vielzahl an Möglichkeiten darzustellen. Qubits folgen – im Gegensatz zu einfachen Bits – der Dynamik von Spin-Gläsern. Aber auch ein Qubit kann nur einen Zustand zu einer Zeit haben, also 1 oder 0 sein – oder irgendetwas dazwischen. Im berühmten Gedankenexperiment mit Schrödingers Katze ist es keinesfalls so, dass die Katze gleichzeitig lebt oder tot ist. Man weiß schlicht und ergreifend nicht, welchen Zustand das Tier zu einem bestimmten Zeitpunkt im Karton hat. Um zu erfahren, ob die Katze lebt, schläft oder tot ist und warum, muss man den Karton öffnen und hineinschauen. Macht man den Karton nur für einen Bruchteil einer Sekunde wieder zu, kann sich bis zum nächsten Öffnen der Zustand der Katze bereits geändert haben. Aber dies soll kein quantenmechanischer Diskurs werden. Wir wollen damit nur demonstrieren, dass auch eine KI fehlbar ist und man keinesfalls alles glauben sollte, was man liest. Fragt man ChatGPT übrigens dieselbe Frage später noch einmal, kann ein ganz anderes Ergebnis herauskommen.
Glaube ist gut. Kontrolle ist besser.
Was für Informationen im Allgemeinen gilt, trifft besonders auf KI-generierte Inhalte zu: Prüfe die Fakten. Es gibt aber noch andere Gründe, warum KI-generierte oder übersetzte Texte von menschlichen Experten nachbearbeitet werden sollten. Menschen helfen dir, den richtigen Ton zu finden – sowohl in der Wortwahl (formell, informell, modern, professionell) als auch kulturell. Zum Beispiel sprechen viele Menschen Deutsch. Trotzdem versteht ein Österreicher unter einem Schlag möglicherweise etwas Anderes als ein Westfale.
Dein Unternehmen will die Menschen mit seinen Inhalten ansprechen und Vertrauen aufbauen. Professionalität und Individualität sind nur zwei der Zutaten. Aber sie sind die wichtigsten.