Large Language Models DALL-E Char-GPT OpenAI
Diese Begriffe sind nicht mehr weg zu
denken. Sie sind in aller Munde. Sie beeinflussen unser Leben.
Und was sagt ein Computerexperte in
verständlichen Worten dazu ?
«Mit heutiger KI sind die Large Language
Models gemeint und die basieren zwar auf neuronalen Netzen, sind aber eigentlich
noch nicht wirklich intelligent, sondern generieren basierend auf den
konsumierten Trainingsdaten für jede Eingabe die wahrscheinlichste Ausgabe. Die
Trainingsdaten werden letztlich komprimiert und verzerrt, da die Anzahl der
Neuronen und Schichten begrenzt ist und am Ende entsteht eine komplexe
mathematische Funktion, welche eine begrenzte Anzahl an Wörtern als Eingabe hat
und dann z.B. ein Bild generiert (DALL-E) oder eine Textantwort erzeugt (Chat
GPT).
Das Ganze ähnelt dem menschlichen visuellen
Cortex, weil es in Schichten aufgebaut ist und eine begrenzte Anzahl an
Input-Nodes hat.
Was Chat GPT besonders macht, ist die Größe
(also die Anzahl der Neuronen) und das Trainingsprogramm (da sind Menschen als
Vorfilter involviert und andere neuronale Netze geben ebenso Feedback).
Eine spannende Frage ist ob es physikalisch
tatsächlich möglich ist ein künstliches Gefäß für Bewusstsein zu erschaffen,
welches nicht aus biologischen Zellen besteht, sondern effektiv aus
Transistoren. Das wird auf jeden Fall eine spannende Zukunft und hoffentlich
nicht so düster wie es sich einige ausmalen.»
Der Experte ist übrigens mein Sohn, Constantin Schellhammer. Und ich bin Experte für Soziale Intelligenz, Markus Schellhammer

