Login

IoT - Konsumenten und das Internet der Dinge

Internet der Dinge – Werden wir überflüssig oder befähigt?

Paul A. Pavlou

Keywords

Internet der Dinge, Künstliche Intelligenz, IoT, AI, Augmented Intelligence, Mensch-Computer-Symbiose, Autonome Systeme

den Artikel als pdf downloaden

Maschine allein oder Mensch plus Maschine?
Jüngere Entwicklungen bei Sensor- und Netzwerktechnologien haben zu einer signifikant ansteigenden Verbreitung von Applikationen für das Internet der Dinge (IoT) geführt, z. B. sogenannter Wearables. Diese basieren auf Technologien künstlicher Intelligenz (AI) wie dem maschinellen Lernen und Sehen, dem Deep Learning, der Sprachverarbeitung oder Big-Data-Analytik. Die Fortschritte dabei haben wiederum zur Entwicklung autonomer Systeme im Bereich der Smart Homes, der Smart Cities und Smart Grids oder dem fahrerlosen, autonomen Fahren geführt. Werden solche intelligenten IoT-Systeme menschliche Arbeitskräfte bald überflüssig machen? Werden Menschen in der Arbeitswelt der Zukunft überhaupt noch eine Rolle spielen? Werden AI-Systeme Menschen komplett ersetzen oder eher die menschliche Intelligenz erweitern und uns dazu befähigen, die dringendsten Probleme unserer Zeit besser zu lösen, als wir es uns jemals erträumt hätten? Ich gehe davon aus, dass eine effektive Symbiose aus Menschen und Maschinen – also „Augmented Intelligence“ – das Potenzial hat, einige aktuelle Herausforderungen erfolgreich zu lösen, und dass sie zumindest in absehbarer Zeit besser funktionieren wird als reine AI-Lösungen.

Artificial Intelligence oder Augmented Intelligence
Unter Augmented Intelligence versteht man Systeme, die menschliche Intelligenz erweitern, während sich AI normalerweise auf Computeranwendungen bezieht, die den Menschen vollständig ersetzen.  Der Hype rund um das Potenzial des IoT betrifft zumeist die sich selbst steuernden, autonomen AI-Systeme, die mittels Big-Data-Analytik funktionieren und ihre Daten von IoT-Anwendungen beziehen. Dass IoT-Anwendungen die enormen, selbst generierten Datenmengen sammeln, aggregieren und analysieren können, ist eine Grundvoraussetzung für die Nutzung des Potenzials des IoT – sowohl für reine AI-Lösungen als auch für solche, die menschliche Intelligenz unterstützen.

Machine Learning, Sprachverarbeitung, Datenanalytik und andere AI-Anwendungen liefern auch ohne menschliches Zutun immer bessere Ergebnisse. Anderes gilt in Bereichen wie Design, kreative Werbung, persönlicher Verkauf, Mitarbeiterauswahl und Mentoring, bei strategischen Entscheidungen oder der Behandlung von Krankheiten. Diese stellen wichtige Anwendungsfelder dar, in denen menschliche Beurteilungen und Intuition nach wie vor wichtig sind, und eine Mensch-Maschine-Symbiose meist bessere Leistungen bringt.  Menschliche Intelligenz wird nach wie vor benötigt, wenn es um Entscheidungen in Zusammenhang mit personenbezogenen Daten über Mitarbeiter, Kunden oder Partner und deren Präferenzen, Verhalten, Gewohnheiten, Emotionen und Ähnliches geht. Liegen nur mehrdeutige, vage oder unvollständige Informationen vor, sind Menschen den Maschinen grundsätzlich überlegen. Mangelnde emotionale Intelligenz und fragliche Urteilsfähigkeit sind nach wie vor die größten Hindernisse für den Einsatz von AI. Augmented Intelligence integriert die einzigartigen menschlichen Fähigkeiten, die AI nicht zu replizieren vermag, und viele Visionäre wie Bill Gates, Stephen Hawking und Elon Musk äußern berechtige Zweifel an Artificial Intelligence. Weitreichende IoT-Probleme können oft weder durch reine Computerlösungen noch durch Menschen allein gelöst werden. Deshalb gibt es ein großes Potenzial für IoT-Anwendungen, die auf Augmented Intelligence setzen. Machine-Learning-Ansätze und menschliche Intelligenz sollten so gekoppelt werden, dass Menschen letztlich die oberste Steuerungsinstanz bleiben.

Das Potenzial der Mensch-Computer-Symbiose im IoT
Unter Mensch-Computer-Symbiose versteht man jede Art der kollaborativen Interaktion zwischen Menschen und Computern. Im IoT-Kontext entsteht eine solche Symbiose, wenn über das IoT Daten gesammelt werden, mit denen AI-Anwendungen standardisierte Kalkulationen vornehmen. Diese basieren auf Kriterien, die Menschen festgelegt haben, und sollen Erkenntnisse für Evaluierungen und Entscheidungen generieren. Die Grundannahme der Mensch-Computer-Symbiose ist, dass sich damit die Stärken und Problemlösungsfähigkeiten von Menschen und Computern ergänzen. Augmented Intelligence entsteht, wenn wir die rechnerische Leistungsfähigkeit von Computern – kombiniert mit der Erkenntnisfähigkeit, der Intuition und dem Hausverstand der Menschen – optimieren.

Das Konzept der Augmented Intelligence ist gar nicht so neu und verwandt mit der schon länger existierenden Forschung zur Mensch-Computer-Interaktion (HCI). HCI-Forscher haben interessanterweise immer schon davor gewarnt, dass AI stark simplifiziert, indem es Menschen als perfekt rational agierende Maschinen betrachtet. Der HCI-Ansatz hingegen verfolgt das Ziel, die Symbiose zwischen Menschen als emotionalen und interpretativen Einheiten und Computern zu verbessern, um dadurch die menschliche Leistungsfähigkeit zu steigern. Viele Augmented-Intelligence-Ansätze nutzen dazu Crowdsourcing-Strategien und Gamification, die dem Spirit der HCI-Tradition entsprechen. Man entwickelt Augemented-Intelligence-Designs für IoT-Geräte, um so die Interaktion zwischen Menschen und der IoT-Technologie zu verbessern.

Box: Kommerzielle Anwendungen von Augmented Intelligence im Bereich IoT

Alle High-Tech-Giganten fördern die Entwicklung von Augmented Intelligence. Kommerziell verfügbare IoT-Plattformen wie Amazon AWS, IBM Watson oder Microsoft Azure machen rasante Fortschritte, und viele dieser Anwendungen entsprechen eher einem Augmented-Intelligence-Mindset als einer reinen AI-Logik. Auch Googles Zugang bei seinem Search-Engine-Design ist mit der Tradition von Augmented Intelligence vergleichbar. Die Plattformen erweitern permanent ihr Leistungsangebot und ihre Verbreitung, indem sie immer neue Technologien und Services integrieren.

Eine der bekanntesten und bestentwickelten Plattformen ist Watson von IBM. Sie wurde nach IBMs ersten CEO Watson benannt und 2007 von der IBM-Forschungsabteilung als Teil eines Projekts entwickelt, das ein Fragebeantwortungs-Tool für die Teilnahme an einer Quizshow hervorbrachte. Mit dem Tool gelang 2011 tatsächlich der Sieg bei der Show. Danach wurde es weiter ausgebaut und 2014 kommerzialisiert. Heute bietet Watson „Cognitive Computing” und unterstützt Menschen bei Argumentationen und Entscheidungen durch Sprach- und Bilderkennung. Während klassische Computer programmiert werden müssen, versteht Watson die Welt in ähnlicher Art und Weise wie wir Menschen: durch Lernen, Interpretieren und erfahrungsbasierte Verbesserungen.

Von Gesundheit oder Bildung über Finanzen zu Transport und Energie wird Watson von führenden Experten im jeweiligen Bereich trainiert. Das System beherrscht sieben Sprachen sowie die speziellen Charakteristika und Fachbegriffe unterschiedlichster Industrien und greift auf fundierte, spezialisierte Wissenspools zu, um Menschen schnellere und fundiertere Entscheidungen zu ermöglichen. „Kognitive Systeme sind vor allem bei der ,Schwerarbeit‘ hilfreich – Daten zusammenzufügen, Informationen zu analysieren und daraus relevante Antworten zu generieren, damit Nutzer besser abgesicherte und effektivere Unternehmensentscheidungen treffen können“, meint Vincent Thomas, Client Engagement Leader, IBM Watson.
 

So wird das Internet der Dinge menschlicher
Das IoT, dessen vielfach vernetzte Geräte Informationen austauschen und ohne menschliches Zutun Entscheidungen treffen, führt zu berechtigten Bedenken der Manager: Kann man wirklich darauf vertrauen, dass AI ohne menschliche Kontrolle auskommt? Organisationen sehen sich mit zahlreichen Risiken konfrontiert, die AI in IoT-Geräten verursacht, wie Datenschutzprobleme, mechanistische Entscheidungsfindungsprozesse oder Kontrollverlust. Deshalb sollten Manager genau prüfen, für welche Aufgabe man auf welche Weise und in welchem Ausmaß IoT-Anwendungen einsetzen soll. Die folgenden Richtlinien können Managern dabei helfen, optimale Lösungen für das Spannungsfeld Augmented Intelligence versus AI im Kontext des IoT zu entwickeln.

  • Analysieren Sie die Tradeoffs zwischen voller Automatisierung und menschlicher Kontrolle
    Manager können sowohl auf vollautomatisierte AI-Lösungen setzen als auch der Augmented-Intelligence-Logik folgen. Entscheidungskriterien sind die erwartete Leistungsfähigkeit, die Kosten und die Risiken vollautonomer Lösungen. IoT- Leistungen, die man beispielsweise umsichtig vollautomatisieren könnte, sind die automatisierte Fertigung, Predictive Maintenance sowie Security-Aspekte. Dagegen könnte man bei Anwendungen mit stärkerem Bezug zu Menschen, wie im Smart Retailing, von Menschen durchgeführte Kontrollen einbauen. Beacon-Technologien und Blickverlaufstracker könnten zum Beispiel die Warenplatzierung optimieren, während gleichzeitig Verkäufer mit mobilen IoT-Geräten personalisierte Informationen abrufen und damit die IoT-Lösungen noch schlagkräftiger machen.
  • Gestalten Sie die IoT-Anwenderschnittstellen sorgfältig
    Augmented-Intelligence-Anwendungen werden in vielen IoT-Bereichen wie Cybersecurity, Terrorismusbekämpfung, Gesundheitsvorsorge oder Raumfahrt immer gebräuchlicher. Die Interaktion zwischen Menschen und solchen IoT-Applikationen wird nicht von selbst laufend produktiver. IoT-Entwickler sollten ihren Fokus mehr auf die Mensch-Maschine-Interaktionen und die Anwenderschnittstellen legen. Indem sie der HCI-Logik folgen, können sie die entstehenden IoT-Systeme effizienter und effektiver machen und die Steuerung durch den Menschen vereinfachen.
     
  • Nutzen Sie Synergien zwischen AI und Augmented Intelligence
    Manager sollten mehr über mögliche Synergien zwischen Augmented Intelligence und AI im IoT diskutieren und thematisieren, wie man die menschlichen kognitiven Fähigkeiten wirksam mit der Rechenleistung von Computern koppeln kann. Daraus können symbiotische Mensch-Computer-Anwendungen in unterschiedlichsten Bereichen wie der Gesundheitsvorsorge, dem Fin-Tech-Bereich, bei Smart Cities oder Smart Grids entstehen.

Überflüssig oder befähigt: Die langfristigen Aussichten für das Internet der Dinge
In ferner Zukunft werden möglicherweise Maschinen allein die Entscheidungsprozesse in vielen Anwendungen dominieren. Bis dahin ist allerdings mit einer ziemlich langen Übergangsperiode zu rechnen, in der die großen intellektuellen Fortschritte durch eine enge Kooperation zwischen Menschen und Computern erzielt werden. IoT ist ein idealer Anwendungsbereich, um Probleme durch die Integration menschlicher oder maschineller Intelligenz zu lösen. Außerdem benötigt unsere Gesellschaft Zeit, um sich an die großen sozialen, ökonomischen, verhaltensbezogenen Veränderungen und die ethischen Fragen anzupassen, die AI und Augmented Intelligence mit sich bringen. Beide Bereiche betreffen die Zukunft der Arbeit an sich, die Produktivität von Unternehmen, das Verschwimmen von Branchengrenzen und weitere rechtliche sowie gesellschaftspolitische Aufgaben von Regierungen. In näherer Zukunft sollten passende IoT-Designs deshalb ein vernünftiges Ausmaß an menschlicher Steuerung und Kontrolle beibehalten und der Menschheit die Chance geben, mit der Delegation von Kontrolle an Maschinen vertraut zu werden.

Autor/en

Paul A. Pavlou, Milton F. Stauffer Professor and Co-Director, Data Science Institute, Fox School of Business, Temple University, Philadelphia, PA, USA, paul.pavlou@temple.edu

Literaturhinweise

Licklider, J. C. (1960): “Man-Computer Symbiosis”. IRE Transactions on Human Factors in Electronics, (1), 4-11.

Meyer, G.; Adomavicius, G.; Johnson, P. E.; Elidrisi, M.; Rush, W. A.; Sperl-Hillen, J. M. and O'Connor, P. J. (2014): “A Machine Learning Approach to Improving Dynamic Decision Making”, Information Systems Research, Vol. 25 (2), 239-263.

Winograd, T. (2006): “Shifting viewpoints: Artificial intelligence and Human–Computer Interaction”, Artificial Intelligence, Vol. 170 (18), 1256-1258.

https://www.ibm.com/blogs/watson/2017/01/top-3-benefits-cognitive-comput... (January 11, 2017 | Written by: Trips Reddy) (quote)

https://www.computerworld.com/article/3129232/big-data/watsons-the-name-...