Business-IT
07.03.2023
Edge-KI
1. Teil: „Intelligenz für Maschinen“

Intelligenz für Maschinen

Shutterstock / ProStockStudio
Mit Künstlicher Intelligenz am Edge lassen sich neue Anwendungsfelder erschließen.
Die Zeiten, in denen KI- und Machine-Learning-Funktionen nur über Unternehmens- oder Cloud-Rechenzentren verfügbar waren, sind vorbei. Heute kommen entsprechende Algorithmen dort zum Einsatz, wo die Daten anfallen: am Rand von Unternehmensnetzwerken, also am Edge. „Wir sehen eine stetige Zunahme von Anwendungen, die standardmäßig Modelle des maschinellen Lernens auf Edge-Devices ausführen“, berichtet Christian Borst, Chief Technology Officer EMEA von Vectra AI. Dazu tragen Baukästen bei: „Toolkits wie Google Coral, das mit einer integrierten Tensor Processing Unit ausgestattet ist, setzen sich dank Fortschritten bei der Prozessorleistung und den Quantisierungstechnologien allmählich durch.“ Mit solchen Kits können Nutzer Maschinen, Steuerungen und Kameras in der Qualitätskontrolle um KI-Funktionen erweitern. Gleiches gilt für Systeme, die in der Medizintechnik oder in der Heimautomation eingesetzt werden.
Edge-KI wird vor allem durch die wachsende Verbreitung von IoT-Komponenten wie Sensoren und Aktoren wichtiger. Nach Einschätzung des deutschen Marktforschungs- und Beratungsunternehmen IoT Analytics in Hamburg kommen in den nächsten Jahren verstärkt IoT-Sensoren mit integrierten KI- und Machine-Learning-Funktionen auf den Markt. Solche Sensoren werden dadurch selbst zu Edge-Devices. Als Beispiel nennt IoT Analytics Komponenten der Ring-Produktfamilie von Amazon für die Heimautomation. So stehen Ring-Systeme mit Sensoren zur Verfügung, die dank KI-Algorithmen und einer integrierten neuronalen CPU erkennen, ob das Glas eines Fensters oder einer Tür zu Bruch geht, etwa bei einem Einbruchsversuch oder durch einen Orkan.

Vorteile von Edge gegenüber Cloud

Dass Edge-Computing und damit Edge-KI an Bedeutung gewinnen, hat den Grund, dass Cloud-Services nicht für alle Einsatzszenarien ideal sind. „Cloud-Computing im ,Kern‘ des Internets findet an einem oder mehreren festen Standorten statt. Es eignet sich vor allem für die Verarbeitung von Daten im Ruhezustand, also Informationen, die in Repositories wie Datenbanken, Data Warehouses und Data Lakes gespeichert sind“, erläutert Robert Blumofe, Excecutive Vice President und Chief Technology Officer von Akamai. „Wenn es dagegen darum geht, in Echtzeit, online und mit geringer Latenz auf die Aktivitäten von Endnutzern und Geräten zu reagieren, ist Edge-Computing das bessere Modell. Es ermöglicht die Datenverarbeitung direkt vor Ort, in der Nähe der Nutzer und Systeme.“
Das gilt auch für die Analyse von Daten mithilfe von KI- und Machine-Learning-Algorithmen. „Denn die Verarbeitung großer Datenmengen durch IoT-Systeme muss häufig in Echtzeit erfolgen und benötigt daher Latenzzeiten von nahe null“, betont Salim Khodri, EMEA Edge Go-to-Market Specialist bei Red Hat. Die Verzögerungszeit bei der Übermittlung von Daten in eine Cloud und zurück zu einem Sensor oder einer Kamera beträgt aber etwa 100 Millisekunden. „Häufig ist das kein Problem, aber in manchen Fällen ist selbst diese Zeitspanne zu lang, weil die Antworten in Echtzeit benötigt werden“, so Khodri weiter.
2. Teil: „„Edge-KI muss das Vertrauen in sie rechtfertigen““

„Edge-KI muss das Vertrauen in sie rechtfertigen“

Der Bedarf an KI-Lösungen, die am Rand von IT-Infrastrukturen eingesetzt werden, nimmt stark zu. Doch je autonomer solche KI-In­stan­zen agieren, desto größer sind die Vorbehalte der Anwender, so Stefanie Grois, Lead Architect Industry Solutions bei Microsoft. Erforderlich sei daher eine „Responsible Edge AI“.
com! professional: Frau Grois, Microsoft hat mit „Intelligent Edge“ eine spezielle Bezeichnung für intelligente Edge-Infra­strukturen eingeführt. Was ist eine intelligente Edge-Umgebung?
  • Stefanie Grois Lead Architect Industry Solutions bei Microsoft
    Quelle:
    Microsoft
Stefanie Grois:
Der Begriff bezeichnet eine Edge-Umgebung, die autark und „intelligent“ agieren kann und deshalb keine dauernde Verbindung in die Cloud benötigt. Tools am Edge können eigenständig Daten sammeln, konsolidieren und verarbeiten. Dafür können auch KI-Modelle ein­gesetzt werden, die die Analyse und Auswertung der Daten unter­stützen.
com! professional: In welchen Bereichen werden Edge-KI-Anwendungen zum Einsatz kommen, etwa in der Fertigung, Logistik oder Fahrzeugen?
Grois: Vor allem nach der Corona-Pandemie sehen wir einen erhöhten Bedarf für Edge Intelligence in den Bereichen Fertigung und Logistik, aber auch im Einzelhandel. Kunden fragen zum Beispiel, wie sie über den Einsatz von KI in schwer zugänglichen Umgebungen Prozesse automatisieren können. Andere Anwender aus dem Bereich Logistik möchten die Auslastung ihrer Lager schneller überblicken, um automatisch eine Inventarisierung vornehmen zu können. Und im Einzelhandel sehen wir einen wachsenden Bedarf an automatischer Erkennung leerer Regale und automatisierten Check-out-Systemen.
com! professional: Welche Hauptvorteile bringt die Verlagerung von KI- und Machine-Learning-Funktionen in den Edge-Bereich?
Grois: KI in Verbindung mit Edge-Computing setzt voraus, dass Daten lokal gesammelt und analysiert werden, um Aktionen direkt lokal ausführen zu können. Diese minimale Latenz verkürzt die Zeit zwischen Aktion und Reaktion enorm, zumal in vielen Gegenden der Umweg zum Beispiel über Cloud-Rechenzentren physisch gar nicht oder aufgrund fehlender Bandbreite nur sehr eingeschränkt möglich wäre. KI am Edge kann dieses Problem lösen, weil die Modelle vor Ort arbeiten, etwa im Rahmen der Qualitätskontrolle von Bauteilen. KI kann lokal viele Teile pro Minute analysieren, wohingegen eine Übertragung in die Cloud viel zu lange dauern würde oder in verminderter Qualität erfolgen müsste.
com! professional: Welche Herausforderungen müssen Anbieter und Anwender von Edge-KI-Lösungen bewältigen, damit die­ser Ansatz den bestmöglichen Nutzen bringt?
Grois: Sie müssen die neue Infrastruktur in bestehende, isolierte Systeme integrieren, die oft einer starken Segmentierung nach dem ISA-95-Modell (Standard für die Integration von Geschäftsanwendungen wie ERP und Betriebsleitsystemen, Anm. der Redaktion) unterliegen. So ist ein einfacher Zugriff nicht immer möglich. Zudem sind oft starke Sicherheitsrichtlinien im Einsatz. Diese sind beispielsweise nicht in jedem Fall dafür ausgelegt, Edge-Systeme wie Kameras in das Netzwerk zu integrieren.
com! professional: Sind Edge-Systeme und Edge-KI-Lösungen überhaupt in der Lage, die vielen Daten zu verarbeiten?
Grois: Die großen Datenmengen, die verarbeitet werden, stellen in der Tat eine weitere Herausforderung dar. Dafür müssen am Edge Kapazitäten und Schutzmechanismen vorhanden sein. Und wenn die Daten doch in die Cloud gehen sollen, um sie dort beispielsweise in einem Blob Storage zu sammeln, taucht wieder die Herausforderung der Bandbreiten auf. Jede Edge-KI-Lösung muss außerdem gepflegt und mit neuen Daten aktualisiert werden. Dafür müssen zum Beispiel Telemetrie- und Videodaten in die Cloud geschickt werden, da nur dort die für das Training nötige Rechenkraft verfügbar ist. Die Pflege und Aktualisierung übernimmt im Normalfall der Lösungsanbieter, weil Anwenderunternehmen dafür meist nicht die nötige Expertise haben.
com! professional: Etliche Fachleute betrachten KI, Machine Learning und Edge-KI mit Skepsis, etwa aus Furcht vor einem Kon­trollverlust. Wie sieht Microsoft dies?
Grois: Die beliebtesten Einsatzbeispiele von Edge-KI reichen von der Anomalie-Erkennung für effizientere vorausschauende Wartungsarbeiten über das selbstständige Ausführen von Aktionen bis zur direkten Interaktion mit Umgebungen. Als Faustregel gilt: Je autonomer KI komplexe Entscheidungen trifft, desto größer sind die Vorbehalte der Unternehmen. Wir müssen deshalb sicherstellen, dass jede KI hohen Standards genügt und das Vertrauen in sie rechtfertigt. Über unseren ‚Responsible AI‘-Ansatz begegnen wir solchen Vorbehalten.
com! professional: Das heißt, am Einsatz von KI und Edge-KI führt letztlich kein Weg vorbei?
Grois: Ja. Edge-KI wird bei der Analyse großer Datenmengen in komplexen Umgebungen eine wichtige Rolle spielen, weil menschliche Fähigkeiten hier bei der Verarbeitungsgeschwindigkeit und -genauigkeit nicht mithalten können. Bis eine Edge-KI selbstständig und dynamisch komplexere Entscheidungen trifft, wird es aber noch dauern.
3. Teil: „Mehrere Terabyte pro Tag“

Mehrere Terabyte pro Tag

Hinzu kommen die großen Datenvolumina, die vor Ort anfallen, etwa an einer Maschine, in einem autonomen Fahrzeug oder einem automatisierten Lager. Nach Angaben des finnischen Edge-KI-Spezialisten Advian erzeugen beispielsweise die 50.000 Sensoren eines Passagierflugzeugs des Typs Airbus A350 täglich 2,5 Terabyte an Daten. Bei der Erprobung von hochautomatisierten Fahrzeugen sind es nach Einschätzung von Forschern des Karlsruher Instituts für Technologie (KIT) 4 bis 8 Terabyte täglich.
Solche Datenmengen in ein (Cloud-)Rechenzentrum zu übertragen, erfordert Netzwerkverbindungen mit hohen Bandbreiten. Diese sind jedoch kostspielig und zudem nicht überall verfügbar. Abhilfe im mobilen Bereich können 5G-Mobilfunkverbindungen schaffen, die hohe Übertragungsraten mit kurzen Latenzzeiten von wenigen Millisekunden verbinden. Doch auch hier sind Faktoren wie die Kosten und die Übertragungskapazitäten zu berücksichtigen, vor allem in Räumen mit vielen Nutzern.

Bildsensoren und Mikrocontroller mit KI

Um KI und maschinelles Lernen in Edge-Systeme zu integrieren, gibt es viele Optionen. So hat beispielsweise Sony KI-Funktionen in die Bildsensoren der IMX500-Reihe integriert. Auch Mikrocontroller (MCUs) lassen sich mithilfe von schlanken Neuronal Network Frameworks wie Neural Network on Microcontroller (NNoM) und TinyML um solche Funktionen ergänzen. MCUs kommen beispielsweise in Embedde- AIoT-Systemen (Artificial Intelligence of Things) zur Anwendung. Siemens wiederum bietet seit mehreren Jahren Steuerungen der Simatic-Reihe an, die mit KI-Prozessoren der Reihe Movidius Myriad X von Intel ausgestattet sind. Außerdem setzt Siemens für die optische Qualitätskontrolle in Fabriken mithilfe von IoT-Systemen Edge-KI-Plattformen und Anwendungs-Frameworks ein, etwa von Nvidia.
Für Aufgaben, die höhere Rechenleistung benötigen, kommen Computer in Betracht, die mit KI-Prozessoren ausgestattet sind. Dies können Industrie-PCs sein, aber auch kompakte Systeme für den Outdoor-Einsatz. Ein Beispiel sind die Edge-KI-Lösungen der AIE800-Reihe von Axiomtek auf Basis der KI-Plattform Jetson Xavier NX von Nvidia. Solche Systeme verkraften Temperaturen von minus 30 bis plus 50 Grad Celsius und sind gegen Spritzwasser geschützt. Einsatzfelder sind etwa Verkehrsmanagementsysteme sowie raue Umgebungen wie Fabriken, das Außengelände von Unternehmen und Kraftwerke.
Herausforderungen von Edge-KI
Damit Edge-KI den erhofften Nutzen bringt, müssen Anwender mehrere Faktoren berücksichtigen, erläutert Salim Khodri, EMEA Edge Go-to-Market Specialist bei Red Hat. Zu beachten sind insbesondere folgende Herausforderungen:
  • Der Aufwand beim Einsatz vieler Sensoren in IoT-Umgebungen: „Dies kann kostenintensiv und zeitaufwendig sein“, sagt Khodri.
  • Hohe Komplexität: Die meisten Branchen, in denen KI am Edge vorangetrieben wird, wollen die neuen Anwendungen innerhalb der gesamten Infrastruktur bereitstellen. „Bedenkt man, wie komplex Unternehmen aus dem Einzelhandel, dem Gesundheitswesen oder der Fertigung sind, führt das oft zu Installationen an mehreren Standorten, wo es dann an geeigneter IT- oder Security-Infrastruktur fehlt“, gibt der Experte von Red Hat zu bedenken.
  • Edge-Computing an Remote-Standorten mit wenigen oder keinen IT-Fachleuten: IT-Teams suchen aus diesem Grund nach einem Betriebsmodell, das ähnliche Automatisierungs- und Lifecycle-Management-Funktionen bietet wie zentrale Rechenzentren und die Public Cloud.
  • Interoperabilität von Komponenten: „Es gibt keinen Anbieter, der einen vollständigen Edge-Stack liefern kann“, konstatiert Khodri. Unternehmen müssten daher in ihren Edge-Umgebungen auf die Interoperabilität der Hardware und Software achten, die von unterschiedlichen Anbietern stammt. Allein KI sei ein Bereich, in dem viele Akteure zusammenarbeiten müssten. Daher sei es kaum möglich, den Technologie-Stack für KI am Edge von einem einzigen Unternehmen zu beziehen.
  • Ökosphäre von Anbietern berücksichtigen: Anwender sollten auf Infrastrukturen setzen, mit denen sich Lösungen unterschiedlicher Anbieter verwalten lassen. Eine solche Ökosphäre hat beispielsweise Red Hat zusammen mit Lösungen von Anbietern wie Nvidia und Intel aufgebaut. Die Hard- und Software aller Beteiligen ist zertifiziert und arbeitet mit den Lösungen der anderen Anbieter zusammen.
  • IT-Sicherheit: „Edge-Umgebungen brauchen Schutz, daher müssen auch KI-Prozesse Security integrieren“, stellt Salim Khodri fest. „Denn die Absicherung von KI-Systemen, ihrer Daten und ihrer Kommunikation ist sowohl für den Schutz von Anwendern und Daten als auch der Investitionen unverzichtbar, die Unternehmen in die neuen Lösungen tätigen.“

Machine-Learning-Modelle für den Edge

Um die Machine-Learning-Modelle zu erstellen, die auf Edge-Systemen laufen, sind zwei Schritte erforderlich: Training und Klassifizierung. Und hier kommt doch die Cloud ins Spiel, so Robert Blumofe von Akamai: „Das Training erfolgt offline und erfordert große Datenmengen, die als Beispiele verwendet werden. Daher wird es häufig in einer Cloud durchgeführt.“ Ergebnis des Trainings ist ein Modell, das zur Klassifizierung verwendet wird.
Die Klassifizierung erfolgt online in Echtzeit und unter Verwendung neuer Beispiele, die von Nutzern und Geräten stammen. „Die aus dem Training abgeleiteten Modelle sind meist kompakt und lassen sich leicht an den Edge verteilen“, so Blumofe weiter.
Allerdings ist es erforderlich, ein effizientes Management der ML- und KI-Modelle zu etablieren. Da diese meist in Form von Software-Containern bereitgestellt werden, kommen dafür Orchestrierungs-Tools wie Kubernetes infrage. Doch Kubernetes allein reicht nicht aus, erläutert Salim Khodri von Red Hat, vor allem in komplexen Edge-Umgebungen. Nötig seien ergänzende Funktionen für das Management und die Absicherung von Kubernetes-Clustern, wie sie Red Hat Openshift zur Verfügung stellt. Zu diesen Funktionen zählen ein Monitoring, ein zentrales Management von Regelwerken (Policies) und die Unterstützung von Netzwerk-Plug-ins.
Mit KI mehr Sicherheit für Edge-Systeme
Ein wichtiges Einsatzfeld von Künstlicher Intelligenz und maschinellem Lernen (ML) in Verbindung mit Edge-Systemen ist der Schutz von IT-Umgebungen und Endgeräten. „Edge-Computing eignet sich ideal für Sicherheitsfunktionen wie das Scannen nach Sicherheitsbedrohungen, das Klassifizieren und Blockieren von Bots und die Abwehr von DDoS-Angriffen“, meint etwa Robert Blumofe, Executive Vice President und Chief Technology Officer von Akamai. „Da die Datenverarbeitung in der Nähe der End-User und Endgeräte stattfindet, bietet Edge-Computing niedrigere Latenzzeiten und eine massive Skalierung.“
KI und ML lassen sich beispielsweise am Rand von IT-Infrastrukturen und Netzwerken dazu nutzen, um IoT-Systeme (Internet of Things) zu identifizieren und im laufenden Betrieb zu überwachen. „IoT-Geräte weisen unabhängig vom Hersteller ein einheitliches Netzwerkverhalten auf“, erläutert Martin Zeitler, Director System Engineering beim IT-Security-Spezialisten Palo Alto Networks. „So nimmt ein Röntgengerät Bilder auf und lädt sie hoch, ein Thermostatsensor misst die Temperatur und passt sie entsprechend an.“ Dadurch entsteht eine große Menge von Daten, die sich mithilfe von Machine Learning und KI analy­sieren lassen. „Durch die Beobachtung des Netzwerkverhaltens kann ein ML-Algorithmus praktisch eine unbegrenzte Anzahl von IoT-Geräten identifizieren“, so Zeitler. Algorithmen sind außerdem in der Lage, eigenständig neue IoT-Geräte zu erkennen und zu überwachen.
Verdächtige Aktivitäten am Edge identifizieren
Zusätzlich können ML und KI dazu verwendet werden, um bei Edge-Systemen und IoT-Geräten ungewöhnliche Verhaltensmuster (Anomalien) zu identifizieren, die beispielsweise auf Cyberangriffe hindeuten. Die KI-Lösungen übersetzen zu diesem Zweck Telemetrie-Informationen in Empfehlungen, um die Sicherheitsricht­linien anzupassen. „Das Ergebnis ist eine optimierte Sicherheit für Edge-Systeme, Endpoints und das gesamte Unternehmen sowie Zeiteinsparungen für die IT-Sicherheitsteams“, erklärt Zeitler. Solche Verhaltensanalysen auf Basis von Machine Learning und Reputationsheuristiken können in Edge-Umgebungen beispielsweise Bots klassifizieren. „Einige Bots sind ,gut‘. Sie helfen etwa dabei, Suchmaschinendaten zu organisieren“, erläutert Robert Blumofe. „Andere sind ,schlecht‘ und dienen dazu, Daten zu entwenden.“ Mit ML können IT-Fachleute ermitteln, welche Aktivitäten in Edge-Umgebungen legitim sind.

Permanente Optimierung

Ein Vorteil von Edge-KI-Anwendungen ist, dass KI-Modelle immer präziser werden, wenn für das Training mehr Daten herangezogen werden, so Ludwig von Reiche, Geschäftsführer von Nvidia Deutschland. „Wenn eine Edge-KI-Anwendung auf Daten stößt, die sie nicht genau oder sicher verarbeiten kann, lädt sie diese in der Regel in die Cloud hoch, damit der KI-Algorithmus sie neu trainieren und daraus lernen kann. Je länger ein Modell also in der Edge-Produktionsumgebung ist, desto genauer wird es.“
Als weitere Vorteile von KI-Anwendungen und Edge-KI führt von Reiche die Flexibilität und Leistung an. Der Grund ist, dass neuronale KI-Netzwerke nicht auf die Beantwortung einer bestimmten Frage trainiert werden, sondern auf die Beantwortung eines bestimmten Fragetyps, auch wenn die Frage selbst neu ist. „Dies verleiht dem KI-Algorithmus die Intelligenz, beliebig viele verschiedene Eingaben wie Text, gesprochene Wörter oder Videos zu verarbeiten.“

Zentrale Einsatzfelder

Unter den vielen potenziellen Einsatzbereichen von Edge-KI sind derzeit nach Einschätzung von Nvidia einige von besonders hoher Relevanz. Dazu zählt die vorausschauende Wartung in der Fertigung (Predictive Maintenance). Sensoren erkennen bei Maschinen frühzeitig Abweichungen vom normalen Verhalten und beugen auf diese Weise ungeplanten Ausfällen vor.
Von besonderem Interesse sind derzeit außerdem intelligente Prognosen im Energiebereich. „KI-Modelle helfen dabei, historische Daten, Wettermuster, den Zustand des Stromnetzes und andere Informationen zu kombi­nieren, um komplexe Simulationen zu erstellen“, so von Reiche. „Diese ermöglichen eine effizientere Erzeugung, Verteilung und Verwaltung von Energieressourcen.“
Ein weiteres Anwendungsgebiet ist das autonome Fahren, sowohl auf den Straßen als auch in Lager- und Fabrik­hallen, Stichwort Intralogistik. Rechenkapazitäten und Intelligenz an Bord solcher Fahrzeuge sind unverzichtbar, um in Echtzeit Entscheidungen zu treffen – etwa die, beim Auftauchen eines Hindernisses rechtzeitig zu bremsen. Edge-KI-Plattformen wie Nvidia IGX sind darüber hinaus für Anwendungen im Medizinsektor ausgelegt. Beispiele sind Operationen mit Roboter-Unterstützung, die Fernversorgung von Patienten, die etwa an Diabetes leiden, und die automatisierte Auswertung von Röntgenaufnahmen.
  • Ein Einsatzbeispiel von Edge-KI sind kassenlose Supermärkte. Kameras und KI-Anwendungen erfassen die Einkäufe des Kunden. Dieser erhält die Rechnung nach Verlassen des Markts auf sein Smartphone.
    Quelle:
    Rewe / Boris Saposchnikow

Mithilfe von Edge-KI einkaufen

Auch im Einzelhandel, inklusive der Lagerhaltung und der Optimierung von Lieferketten, kommt Edge-KI bereits zum Zug. Beim Lebensmittelhändler Rewe können Kunden etwa in Filialen in Köln, Berlin und München kassenlos einkaufen. Gewichtssensoren und Kameras in Verbindung mit einer KI- und ML-Software erfassen, welche Waren ein Kunde in seine Einkaufstasche packt. Nach Verlassen des Ladengeschäfts wird die Rechnung über eine App auf das Smartphone transferiert. Den Betrag bucht die Software vom Konto des Kunden ab.
Von dem Bremer Start-up Ubica Robotics stammt ein Roboter, der bei Rewe und der Drogeriekette Dm den Warenbestand ermittelt. Das System scannt mit 2D- und 3D-Kameras die Regale. Dadurch lässt sich ermitteln, welche Regale nachgefüllt werden müssen oder ob Produkte falsch einsortiert wurden. KI-Algorithmen optimieren anschließend die Lagerhaltung und die Bestellzyklen.
4. Teil: „Fazit, Ausblick & Marktübersicht“

Fazit, Ausblick & Marktübersicht

Zweifellos bieten KI- und Machine-Learning-Funktionen am Rand von IT-Infrastrukturen, in Sensoren und Mikrocontrollern eine Vielzahl an Einsatzmöglichkeiten. „Wir befinden uns erst in den Anfängen von Edge-KI, und dennoch scheinen die möglichen Anwendungen grenzenlos zu sein“, betont denn auch Ludwig von Reiche von Nvidia. Die technischen Voraussetzungen sind vorhanden, etwa kompakte KI- und ML-Modelle für Sensoren, Mikrocon­troller und kompakte Edge-Systeme.
Hinzu kommt der Ausbau der 5G-Mobilfunkinfrastruktur. Von 5G werden Edge-KI-Anwendungen in der Telemedizin, der Logistik und dem Gebäudemanagement profitieren. Doch die Technik ist nicht der allein entscheidende Faktor. Ebenso wichtig ist das Vertrauen der Nutzer in die Entscheidungen, die Machine-Learning- und KI-Algorithmen treffen. Hier besteht offenkundig noch ein erheb­licher Nachholbedarf.
Tabelle:


mehr zum Thema