Glossar

Applied AI

Applied AI umfasst Fragestellungen rund um angewandte Forschung der Künstlichen Intelligenz. Dabei steht die direkte Anwendung von KI-Systemen zur Lösung von Aufgaben in Bereichen wie Industrie, Verwaltung, Bildungswesen oder Ingenieurwesen im Vordergrund. Zudem liegen Schwerpunkte auf Methoden, Vorgehensweise und Ansätze, um KI-Systeme in operative Prozesse zu implementieren.

Augmented Reality oder erweiterte Realität

Augmented Reality (kurz: AR) bezeichnet die visuelle Einblendung bzw. Überblendung von Objekten oder Inhalten in die reale Umgebung. Hierfür werden spezielle Endgeräte eingesetzt wie Smart Glasses oder AR-Brillen. AR-Inhalte können auch mittels eines Smartphones oder Tablets dargestellt werden.  Je nach Endgerät und softwaretechnischer Umsetzung werden verschiedene Formen der AR erreicht.  

Auto Machine Learning oder automatisiertes maschinelles Lernen

Beim Auto Machine Learning (kurz: AutoML) werden Teilschritte des maschinellen Lernens automatisiert. Dies reduziert den manuellen Programmieraufwand und ermöglicht eine effektive Umsetzung einer KI-Lösung in den Phasen der Datenaufbereitung, Parameteroptimierung des KI-Modells, Evaluation sowie der automatisierten Bereitstellung.

Batch Processing oder Stapelverarbeitung

Bei der Stapelverarbeitung liegen, im Gegensatz zur datenstrom-basierten Verarbeitung, die Daten bereits vor und können in ihrer Gesamtheit z.B. für die Analyse oder das Trainieren eines KI-Modells genutzt werden. 

Big Data

Big Data bezeichnet Daten, die aufgrund ihrer Eigenschaften, wie z.B. Größe der Datenmenge, Geschwindigkeit mit der die Daten verarbeitet werden müssen, oder den unterschiedlichen Formaten und Quellen, mit herkömmlichen Mitteln nicht zu verarbeiten sind. Daher wurde in jüngster Zeit Software entwickelt, die sich speziell der Verarbeitung von Big Data widmet.

Bildverarbeitung

KI-gestützte Bildverarbeitung – auch als Computer Vision bekannt – klassifiziert auf Grundlage von Kontextinformationen Bilder und Videos. Das bedeutet, durch Bildverarbeitung ist eine automatisierte Erkennung und Inspektion von Objekten möglich. Aus den gewonnenen Informationen sind Schlussfolgerungen ableitbar. So besteht die Möglichkeit, die Qualität und Produktivität von Gütern und Prozessen vollautomatisiert zu überwachen und fehlerhafte Teile zu identifizieren und auszusortieren.

Business Intelligence System

Business Intelligence (kurz: BI) Systeme werden dazu genutzt Geschäftsdaten zusammenzuführen und für die Analyse durch Führungskräfte aufzuarbeiten und zu visualisieren. Die Visualisierung geschieht oft mittels sogenannter Dashboards, die die Daten graphisch aufbereiten (z.B. in Form von Balken-, Kreisdiagrammen oder Tabellen). Zudem bieten Dashboards die Möglichkeit Daten interaktiv auszuwählen oder zu verknüpfen.

Chatbot

Ein Chatbot bezeichnet ein Dialogsystem, welches mit Benutzer*innen in natürlicher Sprache durch Text- oder Spracheingabe/-ausgabe kommuniziert. Chatbots werden häufig für Informationssysteme eingesetzt. Dabei können Benutzer*innen dem Chatbot Fragen stellen und bekommen gezielte Antworten. Durch die Interaktion lernt der Chatbot stetig hinzu und kann insbesondere auf häufig gestellte Fragen gut reagieren.

Classification oder Klassifikation

Bei der Klassifikation (engl. Classification) werden Datenobjekte aufgrund ihrer numerischen oder kategorischen Eigenschaften einer Klasse zugeordnet. Maschinelle Lernverfahren, die für die Klassifikation eingesetzt werden, sind normalerweise überwacht, d.h. es werden zunächst Trainingsdaten benötigt, bei denen Datenobjekten aufgrund ihrer Eigenschaften manuell eine Klasse zugewiesen wird. Der KI-Algorithmus kann dann diese Trainingsdaten verwenden, um zu lernen, auf Basis welcher Ausprägung von Eigenschaften ein Objekt einer Klasse zugeordnet wird.

Cloud

Bei einer Cloud (Cloud Computing) handelt es sich um eine IT-Ressource, die Nutzer*innen über das Internet verfügbar gemacht wird. Über Server, welche sich in Rechenzentren von Cloudanbietern befinden, wird Speicherplatz, Rechenleistung, Software oder komplette IT-Infrastrukturen als Dienstleistung zur Verfügung gestellt. Diese Services eignen sich, um große Datenmengen zu speichern und wenn geräte- und ortsunabhängig Zugriff auf gespeicherte Information notwendig ist. 

Cluster

Ein Cluster bezeichnet Computer (inkl. CPU, Hauptspeicher, externem Speicher wie z.B. Festplatten und ggf. Grafikkarten), die mittels einer Netzwerkverbindung zu einem gemeinsamen Rechenverbund zusammengeschlossen sind. Damit dieser Rechnerverbund transparent quasi als ein Rechner genutzt werden kann, ist die Installation spezieller Software für das verteilte Arbeiten, wie z. B. Apache Hadoop, notwendig. Cluster können insbesondere bei Cloudanbietern gemietet werden.

Clusteranalyse

Bei der Clusteranalyse werden Datenobjekte basierend auf ähnlichen Eigenschaften zu Gruppen (sog. Clustern) zusammengeführt. Für die Clusteranalyse werden normalerweise unüberwachte maschinelle Lernverfahren eingesetzt, d.h. auf ein vorhergehendes Training, wie es bei der Classification von Nöten ist, kann verzichtet werden. Die Interpretation der resultierenden Cluster obliegt jedoch in der Regel dem Data Scientist.     

CRISP-DM

Beim „Cross Industry Standard Process for Data Mining” handelt es sich um eine Prozessbeschreibung der verschiedenen Phasen bei der Entwicklung einer Data-Mining-Anwendung. Das Verfahren besteht aus sechs Phasen (Entwicklung des datenbasierten Geschäftsmodells, Verstehen der Daten, Vorbereitung der Daten, Modellierung, Evaluation, Einsatz), wobei die Phasen zyklisch mehrfach durchlaufen werden können, beispielsweise, weil aufgrund der Evaluation des Geschäftsmodells auch die folgenden Prozesse angepasst werden müssen.

Data Mining

Data Mining ist die Anwendung von computergestützten Methoden, um aus Datenbeständen neue Erkenntnisse zu ziehen. Hierzu werden häufig Big Data, statistische Verfahren und KI eingesetzt.  Zum Beispiel könnten mit Data-Mining-Verfahren aus Produktionsdaten die Tage gesammelt werden, an denen es eine besonders hohe Ausschussrate gibt. Wenn diese Daten nachfolgend mit Wetterdaten korreliert werden, kann man z.B. herauszufinden, ob eine besonders hohe Luftfeuchtigkeit für die Fehler verantwortlich sein kann.  

Data Science oder Datenwissenschaft

Data Science ist das interdisziplinäre Zusammenspiel von Methoden aus Statistik und Informatik sowie Unternehmensprozesswissen, um aus großen Datenmengen Informationen zu generieren. Durch die Datenanalyse werden Muster und Anomalien erkennbar. Somit besteht die Möglichkeit zukünftige Ereignisse vorherzusagen und die Entscheidungsfindung zu optimieren. 

Data Streams oder Datenströme

Data Streams bezeichnen Daten, die dem System kontinuierlich zur Analyse oder dem Monitoring zugeführt werden. In der Regel werden die Daten in regelmäßigen, festen Zeitspannen, sogenannten Fenstern (engl. windows) untersucht. Für das Trainieren eines KI-Modells sind in der Regel sehr viele Daten notwendig, sollen hierfür Datenströme verwendet werden, so müssen diese Daten für einen gewissen Zeitraum gespeichert werden. 

Deep Learning

Deep Learning ist eine spezielle Methode der Informationsverarbeitung und ein Teilbereich des Machine Learnings. Deep Learning nutzt neuronale Netze, um große Datensätze nach bspw. Mustern und Trends zu analysieren. Die Funktionsweise der künstlichen neuronalen Netze ist in vielen Bereichen von dem biologischen neuronalen Netz inspiriert, das das menschliche Gehirn verwendet. Das heißt sie gehen ähnlich vor, wie Menschen es machen würden: Etwas wahrnehmen, darüber nachdenken und eine Schlussfolgerung daraus ziehen. Nur können sie viel größere Datenberge viel schneller untersuchen, als es Menschen jemals möglich wäre. Die Lernmethoden resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen. Im Rahmen von KI wird Deep Learning beispielsweise in folgenden Bereichen eingesetzt: Gesichts-, Objekt- oder Spracherkennung.

Digitaler Zwilling

Aufgrund des breiten Einsatzfeldes existieren zahlreiche Definitionen des digitalen Zwillings. Grundsätzlich wird unter dem Begriff „Digitaler Zwilling“ ein Werkzeug verstanden, welches Objekte, Dienste oder Systeme virtuell darstellt und alle relevanten Informationen über den gesamten Lebenszyklus enthält. Informationen liegen in dem dynamischen Modell als Daten, Algorithmen und Simulationsmodelle vor. Ein digitaler Zwilling bildet somit nicht nur aktuelle Zustände ab, er ist auch bei der Planung und Entwicklung einsetzbar und dient der Simulation, Überwachung, Berechnung, Regulation und Steuerung von Objekten oder Systemen. 

Embedded Machine Learning

Beim Embedded Machine Learning werden die maschinellen Lernalgorithmen auf eingebetteten Systemen ausgeführt, in der Regel sind dies sparsame kleine Computer auf Platinen, die in größeren elektronischen Geräten, wie z.B. Waschmaschinen, Heizungen etc., Steuer- und Regelungsarbeiten durchführen. Dies ist eine Herausforderung für die Entwicklung von Embedded-ML-Algorithmen, da ML-Algorithmen in der Regel für das Trainieren als auch die Ausführung viel Rechenenergie und Speicherkapazität  benötigen.  

Explainable AI oder Erklärbare KI

Bei der Verwendung von KI kommt es nicht nur darauf an, dass ein Ergebnis geliefert wird, z.B. dass eine Katze auf einem Foto erkannt wird, sondern auch darauf, warum dieses Ergebnis geliefert wurde. Bei KI-Modellen, die auf Entscheidungsbäumen basieren, ist der Ergebnisweg ein Teil der Antwort (z.B. “Das Objekt ist eine Katze, weil es Fell hat, Spitze Ohren und behaarte Pfoten”) bei Neuronalen Netzen, die zwar gute Ergebnisse bei der Objekterkennung in Bildern liefern, sind durch die vielen Schichten und die komplexe Verknüpfung die Eigenschaften, die zum Ergebnis geführt haben, nur schwer ablesbar. Forscher*innen arbeiten jedoch z.Zt. daran Lösungen für das Problem zu entwickeln.

Federated AI oder Föderiertes Lernen

Beim föderierten Lernen wird das KI-Modell nicht auf Basis eines einzelnen großen Datensatzes an einem zentralen Ort trainiert, sondern das Training auf verschiedenen lokalen Datensätzen durchgeführt. Dies hat den Vorteil, dass die Daten geschützt in ihrer lokalen Umgebung verbleiben können und nur das (teil-) trainierte Modell ausgetauscht wird, aus dem sich die ursprünglichen, zum Training verwendeten Daten, nicht wieder rekonstruieren lassen.

Human-centric Artificial Intelligence

Die zu Deutsch „Menschzentrierte Künstliche Intelligenz“ ist ein Ansatz zur Entwicklung von KI, bei dem ihr Nutzen für den Menschen in den Fokus gerückt wird. Der Ansatz vereint technische Entwicklung, ethische Fragestellungen und menschzentrierte Gestaltungsmethoden. Ziel ist es, eine Zukunft zu gestalten, in der fortschrittliche KI-Systeme die Fähigkeiten des Menschen erweitern, mit ihm zusammenarbeiten sowie Recht, Würde und Autonomie des Menschen achten. Menschenzentrierte KI wird durch Systeme definiert, die sich aufgrund menschlicher Eingaben kontinuierlich verbessern und gleichzeitig eine effektive Zusammenarbeit zwischen Mensch und KI ermöglichen.

KI-Modell

In der KI werden die Daten häufig dazu genutzt sogenannte KI-Modelle zu berechnen. Das KI-Modell spiegelt dann gewisse Eigenschaften der Daten wider und kann dann für die eigentliche Aufgabe, z.B. die Einordnung neuer Datensätze in unterschiedliche, bereits durch die Modellberechnung  repräsentierte Klassen, ermöglichen.  

Künstliche Intelligenz

Unter Künstlicher Intelligenz (kurz: KI), im Englischen Artificial Intelligence (kurz: AI), verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken. KI wird häufig als Oberbegriff verwendet, der mehrere Technologien umfasst, darunter Machine Learning, Deep Learning, Computer Vision und Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). Diese Technologien, einzeln oder in Kombination, machen die Anwendungen erst intelligent.  Im Allgemeinen wird zwischen schwacher KI und starker KI unterschieden: Schwache KI sind Systeme, die einzelne kognitive Fähigkeiten ersetzen können, die bislang als rein menschliche Fähigkeiten galten und so vorab definierte Aufgaben lösen. Starke KI sind Systeme, die menschliche Fähigkeiten in unterschiedlichen Punkten erreichen oder sogar übersteigen. Das System findet eigene Probleme und untersucht diese systematisch, um zu einer Lösung dafür zu gelangen.

Machine Learning

Machine Learning (kurz: ML) ist ein Teilgebiet der künstlichen Intelligenz. Algorithmen können Muster und Gesetzmäßigkeiten in Datensätzen erkennen und daraus Lösungen entwickeln. Einfach gesagt, wird Wissen aus Erfahrungen generiert. Diese Erkenntnisse lassen sich verallgemeinern und für die Analyse und Problemlösung in weiteren bzw. bisher unbekannten Datensätzen verwenden. Damit die Software eigenständig lernen und Lösungen finden kann, ist ein vorheriges Handeln von Menschen notwendig. Beispielsweise müssen die Systeme zunächst mit den für das Lernen relevanten Daten und Algorithmen versorgt werden.

Machine Learning Operations (MLOps)

Machine Learning Operations (kurz: MLOps) versteht sich als ein Ansatz, um maschinelles Lernen und deren KI-Modelle effizient und zuverlässig in operative Prozesse einzusetzen und zu verwalten. Dabei fokussiert MLOps die Phasen der Entwicklung, Bereitstellung, Verwaltung und Überwachung von KI-Modellen.  

Natural Language Processing

Bei der Sprachverarbeitung liegen die Daten in Form von Audio-Sprachdateien oder elektronisch als Text vor. Um die Daten sinnvoll verarbeiten zu können, müssen diese Daten zunächst in eine textuelle Repräsentation überführt werden. Elektronische Texte können zur Verarbeitung direkt eingelesen werden, Audio-Sprachsignale müssen zunächst in Text überführt werden. Danach können die Texte auf Basis von Grammatik und Semantik auf ihre Bedeutung hin untersucht werden, oder auf Basis von definierten Mustern, Textteile erkannt und extrahiert werden.

Neuronale Netze

Künstliche Neuronale Netze (KNN) sind dem menschlichen Gehirn nachempfunden. In einem neuronalen Netz ahmen künstliche Neuronen durch Algorithmen die Nervenzellen im Gehirn nach. Durch diese komplexen Verknüpfungen ist es so möglich, Aufgaben in den verschiedensten Bereichen zu lösen. Dabei lernt das neuronale Netzwerk ständig dazu und kann sich selbst verbessern. Neuronale Netze sind besonders gut darin, sensorische Daten wie Bilder, Geräusche und Sprache zu analysieren. Sie nähern sich damit an Verständnisbereiche an, die lange Zeit dem Menschen vorbehalten schienen. In einigen Fällen erledigen neuronale Netze entsprechende Aufgaben sogar schon besser als der Mensch, zum Beispiel bei der Handschrifterkennung.

Open-Source-Software

Open-Source-Software wird auch als quelloffene Software bezeichnet, d.h. die Nutzer*innen der Software können Einblick in den Quellcode nehmen. Auch wenn Open-Source-Software häufig mit freier Software gleichgesetzt wird, so kann Open-Source-Software auch kommerziell vertrieben werden oder in Bezug auf Nutzungsrechte eingeschränkt sein.

Predictive Maintenance

Eine vorausschauende Wartung bei der Machine-Learning-Verfahren zum Einsatz kommen, wird als Predictive Maintenance bezeichnet. Die Erfassung der relevanten Betriebsparameter sowie Prozess- und Maschinendaten ist Basis für die Vorhersage des zukünftigen Wartungsbedarfs. Die KI erkennt in den Datenmengen Muster, welche auf Wartungsbedarfe der Maschinen hinweisen. Dies ermöglicht neben der Reduktion von Materialverbrauch durch zu frühe Wartung auch die Verkürzung von Stillstandzeiten.

Predictive Quality

Vorausschauende Qualität bezeichnet einen Anwendungsfall von maschinellem Lernen, bei dem versucht wird, die Qualität eines Endproduktes während eines mehrstufigen Produktionsprozesses vorauszusagen, sodass fehlerhafte Produkte frühzeitig ausgesondert oder nachbearbeitet werden können. Für die Blechspielzeugproduktion könnte z. B. mittels KI das Eingangsmaterial (das Blech) kontinuierlich auf schadhafte Stellen untersucht werden, um diese dann abzuschneiden, bevor durch Stanzen und Biegen ein Produkt entsteht, welches mit hoher Wahrscheinlichkeit die Endqualitätskontrolle nicht besteht.

Reinforcement Learning oder verstärkendes Lernen

Reinforcement Learning bezeichnet KI-Methoden des maschinellen Lernens, bei der ein Algorithmus bzw. Agent versucht, die erwarteten Belohnungen (engl. Rewards) für jede Aktion zu optimieren. Positive Aktionen stehen falsche Aktionen gegenüber mit negativen Belohnungen. In mehreren Schritten entwickelt der Agent eine Vorgehensweise bzw. Strategie zur Erreichung der maximalen Belohnung. 

Schwache Künstliche Intelligenz

Schwache Künstliche Intelligenz (kurz: schwache KI) zielt auf die Ausführung einer bestimmten Aufgabe ab, die mindestens das menschliche Niveau erreicht. Im Gegensatz zur schwachen KI steht die starke KI.

Starke Künstliche Intelligenz

Starke Künstliche Intelligenz (kurz: starke KI) zielt auf die Ausführung aller menschlichen Fähigkeiten ab sowie deren Abbildung in möglichst vielen Lebensbereichen des Menschen. Die Unterscheidung zwischen schwacher und starker KI ist für die Diskussion des Veränderungsgrades möglicher Berufe, aufgrund des Einsatzes von KI, entscheidend. 

Trustworthy AI oder Vertrauenswürdige KI

Eine vertrauenswürdigen KI zeichnet sich durch folgende drei Komponenten aus, die während des gesamten Lebenszyklus des Systems erfüllt sein sollten: a) Sie sollte rechtmäßig sein und somit alle anwendbaren Gesetze und Bestimmungen einhalten, b) sie sollte ethisch sein und somit die Einhaltung ethischer Grundsätze und Werte garantieren und c) sie sollte robust sein, und zwar sowohl in technischer als auch sozialer Hinsicht, da KI-Systeme selbst bei guten Absichten unbeabsichtigten Schaden anrichten können.

Supervised Learning oder Überwachtes Lernen

Supervised Learning ist ein Teilgebiet des maschinellen Lernens. Die Methode benötigt Trainingsdaten mit festen Ein- und Ausgabewerten. Bei einer einfachen Bilderkennung sind die Eingabewerte z.B. Bilder und die Ausgabewerte z.B. erkannte Objekte. Testdaten außerhalb der Trainingsdaten dienen zur Bewertung der KI-Lösung, sodass eine „Überwachung“ möglich ist. Eingesetzte Methoden umfassen u.a. Regressionsprobleme, neuronale Netze, Entscheidungsbäume und Support Vector Machines.

Unsupervised Learning oder Unüberwachtes Lernen

Unsupervised Learning ist ein Teilgebiet des maschinellen Lernens. Entsprechende Methoden des Unsupervised Learning setzen die Notwendigkeit von Daten voraus, jedoch sind keine expliziten Trainingsdaten mit entsprechenden Ausgabewerten notwendig, da entsprechende Methoden direkt versuchen bestimmte Muster innerhalb des Datensatzes zu erkennen. Eingesetzte Methoden umfassen u.a. Muster- und Clustererkennung sowie Anomalieerkennung.

Virtual Reality oder virtuelle Realität

Bei der Verwendung der Virtual Reality (kurz: VR) werden Nutzende durch ein Head-Mounted-Display bzw. einer VR-Brille von der realen Welt ausgeblendet. Sie tauchen in ein computererzeugtes Abbild einer realen oder simulierten Welt ein und können in dieser bzw. über diese interagieren. 

Zum Kontaktformular