Die Natur der „Künstlichen Intelligenz“

Die Natur der „Künstlichen Intelligenz“von Christian Kauth, Fribourg, Schweiz, und Tobias Gantner, Köln  Intelligenz galt bisher stets als notwendige Voraussetzung komplexe Ziele zu erreichen. Die dazu notwendigen kognitiven Fähigkeiten aufzubringen wurde lange Zeit nur Lebewesen und zudem nur recht wenigen von ihnen zugetraut. Die Idee, dass Intelligenz aber nicht an ein primär organisches Substrat gebunden sein mag, wirkt zunächst unsinnig. Das Vorhandensein einer künstlichen Intelligenz erscheint vor diesem Hintergrund ein Widerspruch in sich, aber ihr Ursprung klärt auf über ihr Potenzial, und ihre Zukunft wird lieb gewonnene Wahrheiten zum Wanken bringen.  In unserem ersten von vier Beiträgen der Serie zum Thema „KI“ in connexiplus beschäftigen wir uns mit der Entstehung der künstlichen Intelligenz und erklären ihre Beschaffenheit sowie ihre historische Entwicklung.Verarbeitung von Information Abstrakt betrachtet, ist jedes Lebewesen ein Akteur in einem Umfeld, das es durch seine Aktionen beeinflusst, mit der Absicht seinem Ziel ein Stück näher zu kommen. Erfolgreich ist darin, wer das Umfeld richtig deutet und die Auswirkung seines Handelns verarbeiten kann. Auffassungsvermögen, Gedächtnis und Verarbeitungsvermögen sind demnach die Erfolgsfaktoren für intelligentes Handeln. Das digitale Pendant zu diesen drei Begriffen sind Sensoren und Speicher zum Laden von Daten sowie Rechenleistung zum Verarbeiten von Information.Information ist substratunabhängig Ähnlich wie unsere Sinnesorgane die Welt in elektro-chemische Impulse und Potenziale umwandeln, so digitalisieren auf unterschiedliche Weisen die Licht-, Druck-, Schall- und pH-Sensoren die Welt. Diese Information wird in Elektronenhäufchen abgelegt, ist aber nicht an das Substrat gebunden. Telefonieren Sie zum Beispiel, dann wandelt Ihr Nervensystem die elektro-chemischen Gedanken in elektrische Impulse um, die Stimmbänder übertragen diese in Schallwellen, die im Mikrofon zu Elektronenströmen werden. Der Router übersetzt Strom in Lichtimpulse, und am Empfangsende der Glasfaserleitung nimmt die Information nach etlichen weiteren Transformationen erstaunlich präzise das originale elektro-chemische Potenzial an. Daten und Information bestehen also auch ohne Leben.Angeborene und erlernte Intelligenz Diese leblose Information gilt es nun zu verarbeiten. Das menschliche Genom entspricht in etwa einem Gigabyte an Daten und enthält Sequenzen, aus denen sich ein erwachsener Mensch entwickelt, dessen Gehirn rund 100 Terabyte an Daten speichern kann. Dieser hunderttausendfach größere Informationsgehalt ist nicht angeboren, sondern erlernt. Dies ist der Hinweis, dass die Struktur des Gehirnes bedeutend erfolgsführender ist als dessen Ursprung an sich, das Genom. Und genau hier liegt die Inspiration, die Struktur des Gehirns, seine Axonen, Synapsen und Dendriten digital abzubilden und in ein sogenanntes künstliches neuronales Netzwerk zu weben.Die virtuelle Kopie der biologischen Synapsen Aber nicht nur die Information, sondern auch ihre Verarbeitung ist substratunabhängig. Diese erfolgt beispielsweise, indem die digitale Information durch neuronale Netze geschickt wird. Genau wie unsere biologischen Synapsen sind künstliche neurale Netzwerke universell, in dem Sinne, dass sie jede Funktion beliebig genau abbilden können. Man passe hierzu die Gewichtungen der künstlichen Synapsen entsprechend an. Ob die Implementierung vom neuronalen Netz eine biologische ist, mit Nervenzellen und Synapsen, oder eine künstliche, mit Aktivierungsfunktionen und Multiplikationen, hat keinen Einfluss auf das Ergebnis: Ein gleicher Stimulus führt zum selben Ergebnis, auch wenn die interne Verarbeitung eine andere ist. Die Äquivalenz der Rechenleistung neuronaler­ Netzwerke zum menschlichen Gehirn mit 1016 Rechnungen pro Sekunde ist noch außer Reichweite.Lernende Algorithmen Lange Zeit waren Algorithmen nichts anderes als die Übersetzung einer Vorgehensweise, eines Rezeptes in eine für den Computer verständliche Sprache. Für jede Funktion musste mühsam ein entsprechender Algorithmus hergeleitet werden. Die Entdeckung der neuronalen Netze als universelle Funktion hat dieses Paradigma über den Haufen geworfen. Anstatt weiterhin neue Algorithmen zu erfinden, reicht es fortan nach effizienten Methoden zu forschen, die die Tausenden oder gar Millionen Gewichtungen des neuronalen Netzes berechnen, die der erwünschten Funktion entsprechen. Solche Methoden gibt es inzwischen reichlich, und viele bestehen darin Synapsen zu stärken, die zu einer korrekten Entscheidung des Netzwerkes beigetragen haben, und Synapsen zu schwächen, die zu einer Fehlentscheidung geleitet haben. Wiederholt man diese kleinen Anpassungen viele Male, konvergiert die im Netzwerk abgebildete Funktion zu dem angestrebten Benehmen. Das Netzwerk wird also besser, indem es auf mehr Daten trainiert wird.Hat die Informatik die Biologie jetzt eingeholt? Wenn das Ziel der Natur ausschließlich darin bestünde beliebig komplexe Funktionen zu berechnen, dann würde die Nutzung der neuronalen Netze einen konzeptuellen Gleichstand bedeuten. Sehr komplexe Funktionen brauchen allerdings auch sehr große Netzwerke, mit vielen Millionen Parametern, um detailliert abgebildet zu werden. Um so große Netze zu trainieren, ist man auf dementsprechend große Datenquellen angewiesen, um zu verhindern, dass das Netz die vorliegenden Daten auswendig lernen kann und jegliches Generalisierungspotenzial verlernt. Nicht nur abgeschlossene Internetgruppen können daher intolerant im Sinne einer mangelnden Generalisierung werden, sondern auch neuronale Netze, die auf wenige Daten zurückgreifen. Die biologischen Synapsen sind jedoch weit komplexer als ihre virtuellen Gegenteile und bieten Vorteile auf anderen Ebenen, zum Beispiel im Energieverbrauch. Während das menschliche Gehirn nur rund zwölf Watt braucht, ist der Leistungsverbrauch beim Trainieren eines äquivalenten künstlichen Netzwerkes durchaus höher. Dieser hohe Energieverbrauch und der damit verbundene Temperaturverschleiß verhindert noch, dass die künstlichen Neuronen auf so kompaktem Raum trainierbar sind wie das menschliche Gehirn.  In der Praxis stellt sich des Weiteren die Frage zur maximalen Lerngeschwindigkeit: Wie schnell kann ein neuronales Netz lernen, im Vergleich zum menschlichen Gehirn? Erwerben Sie heute einen Privatrechner für 1.000 Euro, erhalten Sie dafür eine Rechengeschwindigkeit von rund 109 Rechnungen pro Sekunde. Dies entspricht etwa der zehnfachen Geschwindigkeit eines Insektengehirnes. In der Cloud können Sie für den Preis ein paar Tage die Rechengeschwindigkeit des Gehirnes einer Maus mieten. Die Äquivalenz zum menschlichen Gehirn mit 1016 Rechnungen pro Sekunde, ist noch außer Reichweite. Dabei geht es im menschlichen Gehirn nicht primär um das Lösen komplexer mathematischer Aufgaben, wie dem Rechnen mit Zahlen, sondern darum, komplexe Bewegungsmuster im Raum durchzuführen. Auf so etwas ist unser Gehirn auch evolutionstheoretisch geeicht. Im Inneren sind das ebenfalls mathematische Strukturen.Die Zukunft kommt schneller als Sie denken? Blicken wir 70 Jahre zurück, hätten Sie für 1.000 Euro eine Leistung von einer Rechnung pro Sekunde bekommen. Heute sind das rund zehn Größenordnungen mehr. Die Kosten für Rechenleistung fallen exponentiell mit der Zeit und das erstaunlicherweise unabhängig von der verwendeten Technologie. Auf einer logarithmischen Skala sind die paar Größenordnungen bis zum menschlichen Gehirn nur rund ein Jahrzehnt entfernt. Und extrapoliert man drei Jahrzehnte weiter, dann kostet die Rechengeschwindigkeit der gesamten Menschheit nur 1.000 Euro. Es macht also Sinn sich zu überlegen, welchen Teil unserer Arbeit wir alsbald an die künstliche Intelligenz abtreten möchten.  In einigen Nischen sind heute schon neuronale Netzwerke dem Menschen überlegen, so zum Beispiel beim Erkennen von Alltagsobjekten auf Bildern oder in Videos. Die Vielfalt der Künstlichen Intelligenzen Neben neuronalen Netzen gibt es noch viele weitere lernfähige Architekturen, wie Entscheidungswälder und Regressionsanalysen. Bäume in den Wäldern können unterschiedlich hoch und verästelt sein, neuronale Netzwerke verschieden breit und tief. Und diese können wiederum auf verschiedenste Arten gestrickt sein oder, um es biologisch auszudrücken, verschiedene Arten an Geweben und Zellen enthalten, wie zum Beispiel convolutional, dense, long-short-time memories. Diese Schichten können zweckmäßig auf verschiedene Arten trainiert werden, zum Beispiel durch supervised, unsupervised oder reinforcement learning, abhängig davon, ob die KI eine Voraussage machen, eine Entscheidung treffen oder Daten gruppieren soll.Eine KI, die alles kann, wird es noch eine ganze Weile nicht geben, dazu sind die Architekturen und Trainingsmethoden noch nicht einheitlich genug und die Datensätze aktuell zu ärmlich und lokal gehortet, trotz Big Data, Selftracking und Tele­medizin.   Ausblick In unserer nächsten Kolumne legen wir eine KI für Sie auseinander, erklären wie diese funktioniert und schätzen ihr Potenzial ab. Sei dies eine KI zur Erkennung von Unregelmäßigkeiten im EKG, von Sepsis oder zur Vorhersage von Nierenversagen. Reichen Sie uns gern per E-Mail ihre ganz persönliche Wunsch-KI ein an folgende Email-Adresse:  tobias.gantner@healthcarefuturists.comhttps://www.healthcarefuturists.com    Aufmacherbild Copyright:  Kiyoshi Takahase Segundo / Alamy Stock Foto  Autoren:           Dr. Christian Kauthchristian.kauth@healthcarefuturists.comChristian Kauth ist ein kreativer Technologe im Gesundheitswesen. Nachdem er das Winzige erforscht (Elektronik für Nanosensoren) und das Große entwickelt hat (Software-Ingenieur bei Microsoft), kümmert er sich um das Gesunde (Algorithmen für medizinische Geräte) und macht es sich zur Aufgabe, Technologien zu demokratisieren, die das Potenzial haben, viele unserer alltäglichen Probleme und Sorgen zu lösen. Er tut dies als CEO der HealthCare Futurists Schweiz, als Freiberufler Kauthentech sowie als Dozent an der Universität Fribourg.              Dr. med. Tobias Gantnertobias.gantner@healthcarefuturists.com Tobias Gantner ist Arzt, Jurist und Philosoph. Er ist Gründer und Geschäftsführer der HealthCare Futurists GmbH, einem internationalen Netzwerk von innovativen Unternehmen, Think und Make Tank.  Als Mediziner, Erfinder, Unternehmensgründer, Health Care Futurist und Visionär der Gesundheit unterrichtet er an verschiedenen akademischen Institutionen und ist als Sciana Member Teil eines internationalen Netzwerks von Vordenkern der Gesundheit der Zukunft.                  aus connexiplus 2-2020 KARDIORENALE ACHSE INTERDISZIPLINÄRKardiologie, Nephrologie, Diabetologie, Lipidologie, Biomarker sowie Ernährung       Titelbild Copyright: Shutterstock / AlexRoz, Shutterstock / Maria Averburg, Shutterstock / 3Dstock, Shutterstock / Sebastian Kaulitzky. Gestaltung: Jens Vogelsang       
Neueste Artikel

 

Kontaktieren Sie uns

 

 

 

Folgen Sie uns