- Sie befinden sich:
- Fachbücher
- »
- Politik & Gesellschaft - Unsere Neuheiten
- »
- Philosophie
- »
- Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz – Rekonstruktion psychotischer Technologie
Philosophie
» weitere Bücher zum Thema
» Buch empfehlen
» Buch bewerten Produktart: Buch
Verlag:
Diplomica Verlag
Imprint der Bedey & Thoms Media GmbH
Hermannstal 119 k, D-22119 Hamburg
E-Mail: info@diplomica.de
Erscheinungsdatum: 06.2019
AuflagenNr.: 1
Seiten: 80
Abb.: 17
Sprache: Deutsch
Einband: Paperback
Die Artifizielle Intelligenz (AI) wird zum festen Bestandteil des menschlichen Lebens, kaum ein Bereich bleibt vom Einzug der algorithmisch gesteuerten Maschinen verschont. Heute scheint die Tatsache unbezweifelbar, dass menschliches Leben in etwa drei Jahrzehnten maßgeblich von der AI abhängig sein wird – mehr als es heute bereits der Fall ist. Schon bei den Arbeitsprozessen heutiger Unternehmen ist die Anwendung der AI kaum wegzudenken. Das vorliegende Buch stellt drei Bereiche vor, anhand derer dies veranschaulicht wird. Doch auch wenn die AI viele Vorteile hat, darf sich der Mensch nicht derart von ihr abhängig machen, dass es zum Schwund seiner eigenen Kompetenzen, bis hin zur völligen Abhängigkeit kommt. Es geht aber noch eine weitaus schlimmere Gefahr von der AI aus: da Handlungsanweisungen der Maschinen immer sehr engmaschig und unflexibel sind, kann die heilsbringende Technologie leicht zur psychotischen Gefahr mutieren, wenn wir zu naiv und unüberlegt an das Thema herangehen.
Textprobe: Kapitel 3.4.: Letale Autonome Waffensysteme (LAWS): Im Jahr 2001 begann der Krieg gegen den internationalen Terror. In dieser Zeit traten die Kampfdrohnen auf die Szene und begannen sogleich, gezielte Tötungsangriffe zu fliegen. Es dürfte keine große Verwunderung auslösen, dass inzwischen der Rüstungswettlauf technologisch weiter vorangeschritten ist und auch schon einen konkreten Namen hat: Letale Autonome Waffensysteme, kurz LAWS. Die Drohnen bieten hier eine erste Basis, nicht zuletzt deshalb, da das Fliegen leicht zu automatisieren ist. Dazu kommt auch der weitere wesentliche Vorteil, dass bei solchen Flugeinsätzen auf militärisches Personal verzichtet werden kann und Menschen keiner Gefahr ausgesetzt sind. Ein weiterer Vorteil sind die deutlich längeren Flugzeiten, die nicht unterbrochen werden müssen, da die Druckbelastung z.B. den Piloten schadet. Das sind klare Vorteile, welche die Rüstungsindustrie auch auf andere Einsatzkontexte übertragen möchte. Und es zeichnen sich tatsächlich Trends ab, wie robotische Land- und Wassersysteme. Diese sind technisch noch nicht ganz ausgereift, da unterschiedliche Beschaffenheiten des Terrains hohe technische Erwartungen an die einzelnen robotischen Systeme stellen. Neben den technischen Herausforderungen, die ein schwieriges Gelände mit sich bringt, kommen noch Kommunikationsprobleme zwischen der Maschine und menschlichen Personal dazu. Im Moment wird die Kommunikation noch vom Boden aus vollzogen. Die Fernsteuerungssysteme können gestört oder manipuliert werden dazu kommt, dass extrem große Datenmengen verarbeitet werden müssen, die jetzt schon von militärischen Satelliten kaum bewältigt werden, sodass auf kommerzielle Satellitenanbieter zurückgegriffen werden muss. Was passiert mit den gesammelten Daten, die in die Hände kommerzieller Anbieter landen? Sollte die Wirtschaft mit operativ-militärischen Zielen verschränkt werden? Neben diesen Problemen kommt es noch zu einem weiteren: bei hohen Funkdistanzen kommt es bei ferngesteuerten Systemen zu Verzögerungen. Das macht die Echtzeit-Operation natürlich unmöglich. All diese genannten Probleme spornen die innovativen Forscher an, nach Lösungen zu suchen, und diese Lösungssuche hat in den vergangenen Jahren einen Weg zur Technisierung der Waffensysteme vorbereitet. Operationen sollen effizienter, präziser und mit deutlich minimierten Reaktionszeiten durchgeführt werden – vom Wegfall möglicher menschlicher Verluste innerhalb der eigenen Reihen ganz zu schweigen. Es sind aber nicht nur die eigenen Verluste, die mit autonomen Waffensystemen vermieden werden, sondern auch die menschlichen Schwächen, die eine Operation gefährden könnten. Man denke z.B. an psychisch belastende Momente in einer Gefechtssituation, oder man denke an den Aspekt der begrenzten Ausdauer menschlicher Truppen und, man denke auch an Fehlentscheidungen, die das Gelingen einer Operation signifikant in Gefahr bringen könnten. All diese Vorteile gegenüber bemannten Systemen führen dazu, dass diese Technologien fortentwickelt und optimiert werden. Doch es liegt auf der Hand, dass diese vielversprechenden Möglichkeiten ebenso neue und schwerwiegende Probleme mit sich führen. Ein wesentliches Problem ist schon die Einhaltung des ersten Zusatzprotokolls der Genfer Konventionen, welches drei Punkte vorsieht: 1) die Fähigkeit zur Unterscheidung von Soldaten und Zivilisten 2) der verhältnismäßige Einsatz von Gewalt und 3) die Belangbarkeit der Einsatzverantwortlichen. Doch wer genau soll hier im Fall der Fälle zur Verantwortung gezogen werden, wenn es schon bei den bewaffneten Drohnen regelmäßig scheitert zu rekonstruieren, wer diese entwickelt und kauft? Sucht man nach einer Definition autonomer Waffensysteme, so kann man folgende anführen: »Autonomie« bedeutet letztlich die Fähigkeit eines Computerprogramms, durch selbständige Selektion und Auswertung von Daten auf eine sich verändernde Umwelt zu reagieren. Im Fokus stehen dabei Anwendungen von der Positionsbestimmung und Navigation bis hin zu Zielerfassung und -bekämpfung. . Wenn nun ebendiese Waffensysteme operative Agenten in einer Kriegshandlung sind, mit welchen Mitteln ließe sich dann nachverfolgen, welchem Algorithmus die Operationen einer konkreten Einsatzmaschine gehorchen? Es kann heute schon nicht mehr nachvollzogen werden, wie das künftig möglich sein soll. Das Problem ist die oft fälschlicherweise gelobte Komplexität des Algorithmus, die menschliches Ermessen als das größere Risiko sieht. Tatsächlich aber liegen die wirklich technischen Probleme darin, dass der Bediener die Effekte und Teiloperationen des Algorithmus nur durch die Brille des Systems selbst beobachtet. Mit anderen Worten: er hat eigentlich nicht mehr die Funktion des Bedieners, sondern lediglich des Beobachters. Es ist unmöglich innerhalb einer konkreten Kampfsituation in Echtzeit zu wissen, warum der Algorithmus diese und jene bestimmte Operation ausführt. Der Mensch wird nachwievor Entscheidungen für oder wider bestimmte Kriegshandlungen treffen, doch wenn die Ausführung der Operationen anfängt, gleitet die Situation dem Menschen aus der Hand, wenn tatsächlich Letale Autonome Waffensysteme eingesetzt werden sollen. Deshalb wird schon seit längerer Zeit in verschiedenen Gremien und Arbeitskreisen beratschlagt, ob die LAWS nicht lieber ganz verboten werden sollten. Im Kontext der CCW in Genf sind laut Stand November 2018 28 Staaten explizit für ein Verbot von LAWS, darunter z.B. Österreich, Bolivien, der Vatikan, Kolumbien, Mexiko, Kuba, Irak, Brasilien, Peru, Palästina oder Venezuela – nur um einige Staaten namentlich zu nennen. Auch China ist auf der Liste, jedoch behält sich China das Recht vor, eigene LAWS-Programme voranzutreiben. Umso besorgniserregender ist, dass die Schlüsselnationen, was die globale Kriegsführung angeht, kein wirkliches Interesse an einem Verbot haben: die USA, Israel, Deutschland, Russland, Türkei, Großbritannien, Australien, Belgien, Frankreich, Spanien, Schweden und die Republik von Korea. Warum nicht? Die Gründe sind nicht so klar, aber einige von den genannten Staaten können schon deshalb kein Interesse an einem Verbot von LAWS haben, da sie aktiv in komplexe globale Militäroperationen verwickelt sind – ob im Auftrag der NATO oder aus eigenem Interesse ist zunächst unwesentlich. Abgesehen davon, handelt es sich genau um jene Staaten, welche dem Militär traditionell eine höhere Bedeutung beimessen und, es sind jene Staaten, die über hohe Budgets verfügen, um die Entwicklung ihrer LAWS-Programme voranzutreiben. Insofern ist, wenn man die Lage realistisch einschätzen will, kein wirksames, flächendeckendes Verbot von LAWS zu erwarten. Das bedeutet, dass sich die Menschheit in den nächsten Jahrzehnten auf Probleme ganz eigener Art und Beschaffenheit einstellen muss – gerade was LAWS angeht. Man nehme aber an, dass LAWS – wie durch ein Wunder – doch verboten würde, so wäre es dennoch überhaupt keine Schwierigkeit, unbemannte autonome Systeme mit Waffen auszustatten – insofern steht die Hoffnung auf ein umfassendes Verbot von LAWS auf verlorenem Posten. Andererseits muss auch der ideologische Punkt, der in die Problematik hineinspielt, berücksichtigt werden. Es ist eine Sache, in allgemeinen Termini über ein umfassendes Verbot zu sprechen, eine andere Sache aber, wenn es eine historische Notlage gibt, die derart bedrohlich wirkt, dass überhaupt niemand auf die Idee kommen wird, Kritik am Einsatz von LAWS zu äußern. Beispielsweise könnte man der Öffentlichkeit die Dringlichkeit einer Operation suggerieren, indem die Zivilbevölkerung des eigenen oder eines anderen Landes durch terroristische Gruppen oder Schurkenstaaten gefährdet wäre. Kaum jemand würde zögern, LAWS grünes Licht für einen demokratiebringenden, volksbefreienden Einsatz zu geben. Zum anderen löst jede neue Technologie zunächst einen Oho-Moment aus, welcher durch die neuen, wie Zauberei anmutenden Spielereien die meisten Menschen in seinen Bann zieht. Erst, wenn die Kollateralschäden zunehmen indem sich das Geschäftsgespür einiger Lobbyisten der neuen Technologie bemächtigt, dann werden die kritischen Stimmen allmählich lauter. Doch das sind gar nicht die echten Gefahren, welche der Menschheit mit LAWS drohen. Das Problem ist nicht die Zweckentfremdung, denn die gab es zu allen Zeiten und mit allen Neuerungen. Das Problem ist, dass LAWS in einem technisch fortgeschrittenen Stadium sogar der Kontrolle dieser Gruppierungen entgleiten könnte. Wenn eine Maschine zu einem selbstständig operierenden Akteur wird, welcher dazu noch selbstständig dazulernt und auf Basis der bereits eingespeisten Daten algorithmisch weitere Schlussfolgerungen konstruiert, dann ist der Gedanke von Maschinen, von welchen niemand weiß, was in ihnen vorgeht, nicht mehr fern. Im Science-Blog des US-Verteidigungsministeriums ist ein Beitrag zu finden, in welchem sich Experten bereits Gedanken darüber machen, wie man Robotern soziales Verhalten beibringen soll.
Denis Bobanovic wurde 1979 in München geboren. Er studierte Philosophie (B.A. an der Hochschule für Philosophie und M.A. an der LMU) und Religionspädagogik (Dipl.-Religionspaed. an der Universität Eichstätt). Derzeit forscht er im Kontext eines philosophischen Promotionsstudiums an Fragestellungen zur kosmologischen Metaphysik und den psychoanalytisch-philosophischen Effekten, die durch die Sprache, die sogenannte ‚symbolische Ordnung‘, hervorgebracht werden. Im Rahmen dieser Forschungsfelder weckte auch das Thema der AI sein Interesse. Des Autors philosophisches Denken ist weitestgehend durch Whiteheads und Lacans Theorien beeinflusst. Beruflich wirkt er als Fachlehrer an Münchner Mittelschulen und unterrichtet die Jahrgangsstufen 5 bis 10.
weitere Bücher zum Thema
Gemeinsam ein gutes körperliches Wohlbefinden entwickeln. Kinder und ihre Bezugspersonen im Umgang mit Lebensmitteln
ISBN: 978-3-96146-982-6
EUR 34,90
Zur Poetik des Hörens in Rainer Maria Rilkes Sonetten an Orpheus
ISBN: 978-3-96146-981-9
EUR 39,50
Fully screen printed PTC based sensor array and OFET characterization
ISBN: 978-3-95935-632-9
EUR 49,50
Projektmanagement Know-How für die Duale Karriere. Leistungssport & Studium erfolgreich verbinden
ISBN: 978-3-95935-626-8
EUR 44,50
Typ 1 Diabetes bei Kindern. Innovative Nachsorge für Familien
ISBN: 978-3-96146-977-2
EUR 34,90
Formation Damage. Experimental Work. Laboratory Identification and calculation of Formation damage
Formation Damage. Experimental Work