Zum Inhalt springen

Neuer Kollege Co-Pilot......


Gast

Empfohlene Beiträge

Das Problem ist nicht mangelnde Rechenpower. Das Problem ist die Programmierung dieser Unmengen von Rechenpower.

 

Luftfahrt-Software muss kleinlichst dokumentiert, getestet und deterministisch sein. In kritischen Systemen zertifizierter Flugzeug findest du keine einzige Zeile Code, die nicht ihren wohldefinierten Zweck hat, mehrfach getestet wurde und jederzeit begründet werden kann. Software auf diesem Level herzustellen ist extrem mühsam, anspruchsvoll und teuer. Deswegen kann man die Entwicklungen in der sicherheitstechnisch weit weniger anspruchsvollen Automobilindustrie käumlich auf die Luftfahrt übertragen. Gerade künstliche Intelligenz, sogenannte neuronale Netze sind sehr schwach determiniert. Man kreiert einen lernenden Algorithmus, der dann selbständig sein Verhalten ausprägt. Das ist das exakte Gegenteil von deterministischem Verhalten - die Maschine wird sich je nach Daten, mit denen sie angelehrt wurde völlig unvorhersehbar verhalten. Sowas möchten wir grundsätzlich nicht in einem Flugzeug.

 

Langer Rede kurzer Sinn: Auf Algorithmen künstlicher Intelligenz basierende Software ist mit den heutigen Methoden nicht auf Aviatik-Standard zertifizierbar. Hier setzt meine Idee des Bordingenieurs an, weil wir so schrittweise Erfahrungen über das Verhalten künstlicher Intelligenz im Cockpit sammeln und - falls sinnvoll - einsetzen können.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Luftfahrt-Software muss kleinlichst dokumentiert, getestet und deterministisch sein.... Sowas möchten wir grundsätzlich nicht in einem Flugzeug.

 

Unter den Vorraussetzungen kann man die Diskussion hier beenden: Klar müssen nach derzeitiger Regulierung zwei Piloten im Cockpit sein. Aber Regulierung kann man ändern, wenn das sinnvoll erscheint - sowohl im Hinblick auf Piloten als auch im Hinblick auf Software.

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

Unter den Vorraussetzungen kann man die Diskussion hier beenden: Klar müssen nach derzeitiger Regulierung zwei Piloten im Cockpit sein. Aber Regulierung kann man ändern, wenn das sinnvoll erscheint - sowohl im Hinblick auf Piloten als auch im Hinblick auf Software.

 

Nein, gerade unter diesen Voraussetzungen kann man die Diskussion führen. Wie hier im Forum häufig erwähnt wird, sind die heutigen Luftfahrt-Regeln vielfach in Blut geschrieben. Die kann man nicht einfach so ändern.

 

Dennoch gibt es Fortschritt: Das EFB beispielsweise ist nicht zertifiziert, da läuft teils auch heute noch Windows XP drauf! Erste Erfahrungen mit künstlicher Intelligenz im Cockpit sammeln kann gleichermassen funktionieren.  Anfangs ohne jeglichen Einfluss, mit der Zeit vielleicht als Ergänzung menschlicher Intelligenz, ähnlich den heutigen EFB.

 

Erst wenn sich irgendwann herausstellen sollte, dass die heutigen Regeln für die Zertifizierung von Luftfahrt-Software obsolet sind, können wir darüber diskutieren, diese zu ändern. Dann wird es vielleicht einmal möglich sein, Piloten zu ersetzen. Bis dann sollten wir die menschliche Intelligenz mit künstlicher ergänzen!

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das ist eben die Frage - kann künstliche Intelligenz Passagiermaschinen tatsächlich besser steuern wie menschliche? Meines Erachtens ist das noch länger nicht der Fall. 

Dein erachten in allen Ehren, aber gibt es dafür irgendwelche Anhaltspunkte? Wenn wir uns die Fortschritte der autonomen Steuerung von Maschinen und Prozessen aller Art anschauen, dann halte ich es für geradezu absurd, anzunehmen, dass wenn wir es wirklich versuchen würden die Maschinen nicht in 10 Jahren in allen Dimensionen um ein zehnfaches besser als Menschen beim Fliegen von Flugzeugen wären.

Wenn wir das gut hinkriegen, kann die künstliche Intelligenz beispielsweise verhindern, dass Taxiways oder bei schönstem Wetter Hafenmauern angeflogen werden. Wir haben aber immer noch einen Menschen, der den Hudson als Landemöglichkeit sieht. 

 

Kombination von vielen Vorurteilen gegen kognitive Systeme:

Warum denkst Du, ein kognitives System würde den Hudson nicht als Landemöglichkeit sehen? Wenn die Wahl nur ist, in Häuser zu fliegen oder in den Fluss liegt, dann ist der Fluss doch eine sehr naheliegende Option.

Vielleicht hätte das kognitive System sich aber auch gar nicht in so eine Situation manövriert, weil es viel früher die Entscheidung getroffen hätte, zu einem viel landbareren Feld auszuweichen (was nach den Analysen im Nachgang ja durchaus möglich gewesen wäre) - oder wäre gar den Vögeln ausgewichen ...

 

Zug 37 hat uns allen in der AI-Community doch gerade erst wieder plastisch demonstriert, dass kognitive Systeme durchaus in der Lage sind, auf Lösungen zu kommen, die offensichtlich gut sind aber über die ein Mensch niemals nachgedacht hätte oder noch schlimmer: Von denen selbst im Nachgang Menschen noch nicht mal erklären können, warum sie eigentlich gut waren!

 

Florian

Bearbeitet von Chipart
Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein erachten in allen Ehren, aber gibt es dafür irgendwelche Anhaltspunkte? Wenn wir uns die Fortschritte der autonomen Steuerung von Maschinen und Prozessen aller Art anschauen, dann halte ich es für geradezu absurd, anzunehmen, dass wenn wir es wirklich versuchen würden die Maschinen nicht in 10 Jahren in allen Dimensionen um ein zehnfaches besser als Menschen beim Fliegen von Flugzeugen wären.

 

Zug 37 hat uns allen in der AI-Community doch gerade erst wieder plastisch demonstriert, dass kognitive Systeme durchaus in der Lage sind, auf Lösungen zu kommen, die offensichtlich gut sind aber über die ein Mensch niemals nachgedacht hätte oder noch schlimmer: Von denen selbst im Nachgang Menschen noch nicht mal erklären können, warum sie eigentlich gut waren!

Es geht nicht nur um besser, sondern um die Sicherstellung von "besser". Dafür haben wir heute etablierte Verfahren - die Zertifizierung. Offensichtlich funktioniert das exzellent. Deswegen können wir diese Verfahren nicht einfach ignorieren. 

Dass künstliche Intelligenz zu Lösungen kommt, auf die ein Mensch nicht kommen würde, bestreite ich keineswegs. Gerade deswegen sollten wir künstliche und menschliche Intelligenz in Ihren Stärken kombinieren!

Kombination von vielen Vorurteilen gegen kognitive Systeme:

Warum denkst Du, ein kognitives System würde den Hudson nicht als Landemöglichkeit sehen? Wenn die Wahl nur ist, in Häuser zu fliegen oder in den Fluss liegt, dann ist der Fluss doch eine sehr naheliegende Option.

Vielleicht hätte das kognitive System sich aber auch gar nicht in so eine Situation manövriert, weil es viel früher die Entscheidung getroffen hätte, zu einem viel landbareren Feld auszuweichen (was nach den Analysen im Nachgang ja durchaus möglich gewesen wäre) - oder wäre gar den Vögeln ausgewichen ...

Deswegen: 

Mein Vorschlag ist, einen Bordingenieur künstlicher Intelligenz einzuführen. Ein Computer also, der selber "denken" kann. Anfangs soll dieser nur Daten sammeln und lernen. Wenn daraus erkenntlich wird, dass die intelligente Maschine eine schlaue Hilfe sein kann, soll sie beispielsweise Advisories geben dürfen. Bei noch nicht sehr weit fortgeschrittener Intelligenz hätte der Bordingenieur sowohl beim Hudson, der Hafenmauer wie auch dem Taxiway gewarnt  "Potentieller Konflikt: Der Anflug führt auf ein ungeeignetes Landefeld". Wenn der Bordingenieur genügend intelligent ist, merkt er aber, dass die Hafenmauer gänzlich ungeeignet, der Taxiway besetzt und der Hudson mangels Schub sehr wohl passend ist.

Ich wollte aufzeigen, dass es eben nicht reicht, ein tolles Niveau von künstlicher Intelligenz zu haben. Wir müssen uns absolut darauf verlassen können, dass sie besser funktioniert wie der Mensch, um diesen ersetzen zu können. Tesla macht das ja genau so, die menschliche Intelligenz übernimmt Arbeit, für die der Mensch wenig geeignet ist (in der Nacht stundenlang die Spur halten) und übergibt an diesen, wenn sie überfordert ist (Baustellen). Indem wir erst einmal den Bordingenieur einführen, statt eine Hauruck-Übung zu machen verbessern wir das System und sehen, inwiefern künstliche Intelligenz die menschlichen Piloten zu ersetzen vermag. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es geht nicht nur um besser, sondern um die Sicherstellung von "besser". ... Wir müssen uns absolut darauf verlassen können, dass sie besser funktioniert wie der Mensch, um diesen ersetzen zu können. 

Was genau meinst Du mit "besser" und "sicherstellen von besser"? Das sie in jeder einzelnen Situation eine bessere Lösung finden? Dass sie in Summe über's Jahr weniger Menschen durch Fehler umbringen, als menschliche Piloten?

 

Das "Kombinieren der Stärken von menschlicher und künstlicher Intelligenz" tönt immer ganz super - ist halt nur leider bei konkreten Entscheidungsproblemen Unsinn! Der Mensch (und damit auch Dein Bordingenieur) ist in der konkreten Situation nämlich gar nicht in der Lage, auch nur ansatzweise zu erfassen, warum der Computer eine bestimmte Handlung vorschlägt. Es ist für Deinen Bordingenieur schlicht unentschuldbar, ob der Computer den Flieger in die Kaimauer fliegen will, weil er eine Fehlfunktion hat oder weil die einzige Alternative ein Atomkraftwerk wäre, dass der Ingenieur in der Situation übersehen hat.

 

Tesla und Google brauchen wahrlich keine Menschen, um Autos fahren zu lassen. Die Gründe, dass es trotzdem Lenkräder in Teslas gibt sind rein juristischer (so übernimmt nach AGB immer der Mensch die Verantwortung) und psychologisch/soziologischer Natur (selbst wenn autonome Autos die Todesart auf der Strasse um den Faktor 100 reduzieren werden bei jedem einzelnen Unfall eines autonomen Autos immer noch viele Menschen gegen die unsicheren Maschinen wettern).

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Mein Vorschlag ist, einen Bordingenieur künstlicher Intelligenz einzuführen. Ein Computer also, der selber "denken" kann.

​Wir können auch das Beamen als Ersatz für das Fliegen einführen...

Künstliche Intelligenz ist ja ein nettes Schlagwort, hat aber mit Intelligenz soviel zu tun wie naturidentische Aromen mit Natur. Von echter künstlicher Intelligenz die es mit Menschen im realen Leben aufnehmen kann sind wir noch Jahrzehnte entfernt. In einer Welt voller klarer Regeln, z.B. beim Schachspiel, kann ein künstlich intelligenter Computer den Menschen schlagen. Inzwischen können sie nicht nur einfach dank Rechenpower mehr Züge vorhersehen, inzwischen können sie tatsächlich ihr Gegenüber durchschauen und in Fallen locken. In einer Welt voller Überraschungen versagt er aber nach wie vor kläglich.

 

 

Wir müssen uns absolut darauf verlassen können, dass sie besser funktioniert wie der Mensch, um diesen ersetzen zu können.

Oder wie ich gesagt habe, nicht genauso gut, sondern genauso zuverlässig ist das entscheidende Kriterium.

So manch einem würde es schon genügen, wenn sie es billiger könnten...

 

 

Dass künstliche Intelligenz zu Lösungen kommt, auf die ein Mensch nicht kommen würde, bestreite ich keineswegs.

Das Gegenteil ist aber genauso wahr. Mensch und Maschine sind verschieden, und werden es immer bleiben. Einen hinreichend niedrigen Standard, werden sie beide erfüllen können.

 

 

in der Nacht stundenlang die Spur halten

Das will ich erstmal sehen, Nachts, bei Regen, in einem Bereich in dem es (z.B. wegen früheren Baustellen) mehrere Markierungen gibt, weisse und schwarz überpinselte, bzw die Klebereste von den gelben...

 

 

Indem wir erst einmal den Bordingenieur einführen, statt eine Hauruck-Übung zu machen verbessern wir das System und sehen, inwiefern künstliche Intelligenz die menschlichen Piloten zu ersetzen vermag. 

Wie lange willst du das sehen? Wir erwarten nur alle Zehntenaused Flugstunden überhaupt mal einen aktiven Eingriff, nur alle Hunterttausende von Flugstunden mal ungewöhnliche, die richtig Kreativität verlangen. Hart da zu sagen, wann die Testphase mit einer Aussage abgeschlossen werden kann.

 

 

Wenn wir uns die Fortschritte der autonomen Steuerung von Maschinen und Prozessen aller Art anschauen, dann halte ich es für geradezu absurd, anzunehmen, dass wenn wir es wirklich versuchen würden die Maschinen nicht in 10 Jahren in allen Dimensionen um ein zehnfaches besser als Menschen beim Fliegen von Flugzeugen wären.

Schon heute ist der Autopilot in allen Dimensionen besser, ein voll funktionstüchtiges Flugzeug zu fliegen. Aber wenn es darum geht, eins in aussergewöhnlichen Situationen zu retten, oder eins mit entscheidenden Defekten in der Sensorik order in Signalen von aussen zu fliegen, dann trennt sich die Spreu vom Weizen. Dann merkt man auch erst den Unterschied, zwischen einem durchschnittlichen und einem guten Piloten.

 

 

Warum denkst Du, ein kognitives System würde den Hudson nicht als Landemöglichkeit sehen?

Nach welchen Kriterien soll ein Computer sowas erkennen, seine kognitiven Fähigkeiten beschränken sich auf das, was er sieht. Ein Flugzeug sieht im Normalbetrieb keine Flüsse im Zusammenhang mit Landungen. Ein Mensch guckt auch mal Nachrichten oder Katatstrophenfilme... Ein künstlich intelligenter Computer mit kognitiven Fähigkeiten wird sicher gerade Autobahnstücke als etwas erkennen, das wie eine Landebahn ist, eventuell sogar Dächer von sehr großen, langen Fabrikgebäuden, oder leere Flutkanäle, aber wohl ziemlich sicher keine Flüsse.

 

 

Luftfahrt-Software muss kleinlichst dokumentiert, getestet und deterministisch sein. In kritischen Systemen zertifizierter Flugzeug findest du keine einzige Zeile Code, die nicht ihren wohldefinierten Zweck hat, mehrfach getestet wurde und jederzeit begründet werden kann. Software auf diesem Level herzustellen ist extrem mühsam, anspruchsvoll und teuer. Deswegen kann man die Entwicklungen in der sicherheitstechnisch weit weniger anspruchsvollen Automobilindustrie käumlich auf die Luftfahrt übertragen.

Wenn sich Unfälle wie die des Tesla Autopiloten mit dem Truck häufen, wird man auch in der Automobilindustrie auf die Verfahren zurückgreifen, wie sie in der Luftfahrt, Kerntechnik, Großchemie oder anderen ähnlich riskanten Bereichen angewendet werden. Wenn erstmal soviele autonome Autos herumfahren, wie heute Flugzeuge fliegen, werden genug spektakuläre Unfälle passieren, die ein Umdenken erfordern werden. Wenn gar ein vielfaches an Autos autonom fährt, wird man vielleicht sogar noch strengere Kriterien anlegen müssen, als in der wesentlich weniger anspruchsvollen weil weitgehend regulierten und standardisierten Luftfahrt. Eine ILS Landung ist eine ILS Landung, Landebahnen, Lufträume, Antennen, Hindernisfreie Bereiche, alles ist standardisiert, aber jede Autobahnabfahrt oder Kreuzung ist individuell.

 

So mancher Mythos der Computervorhersager wird sich noch in Luft auflösen, so wie viele davor seit den 60ern... Kann man vorher wissen, kann man aber auch aus Fehlern lernen, wenn man denn will.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Was genau meinst Du mit "besser" und "sicherstellen von besser"? Das sie in jeder einzelnen Situation eine bessere Lösung finden? Dass sie in Summe über's Jahr weniger Menschen durch Fehler umbringen, als menschliche Piloten?

 

Das "Kombinieren der Stärken von menschlicher und künstlicher Intelligenz" tönt immer ganz super - ist halt nur leider bei konkreten Entscheidungsproblemen Unsinn! Der Mensch (und damit auch Dein Bordingenieur) ist in der konkreten Situation nämlich gar nicht in der Lage, auch nur ansatzweise zu erfassen, warum der Computer eine bestimmte Handlung vorschlägt. Es ist für Deinen Bordingenieur schlicht unentschuldbar, ob der Computer den Flieger in die Kaimauer fliegen will, weil er eine Fehlfunktion hat oder weil die einzige Alternative ein Atomkraftwerk wäre, dass der Ingenieur in der Situation übersehen hat.

Das Kriterium "besser" wird man definieren müssen. Ich würde es mal so definieren, dass der Computer Lösungen findet, auf die die Piloten nicht gekommen sind. Und dass heikle Situationen dank einer Meldung des Computers entschärft werden konnten. 

 

Die Piloten sollen nicht erfassen, wie der Bordingenieur zu einer Meldung gekommen ist. Das ist bei künstlicher Intelligenz gar nicht möglich, sie ist nicht deterministisch. Die Piloten sollen die Meldung (wenn möglich) mit gesundem Misstrauen in ihre Entscheidungen einbeziehen. Erst wenn wir wissen, in welchen Situationen der Bordingenieur zuverlässig funktioniert können wir die Procedures insofern ändern, dass die Piloten den Meldungen folgen müssen (ähnlich den heutigen Protections). 

 

.Wie lange willst du das sehen? Wir erwarten nur alle Zehntenaused Flugstunden überhaupt mal einen aktiven Eingriff, nur alle Hunterttausende von Flugstunden mal ungewöhnliche, die richtig Kreativität verlangen. Hart da zu sagen, wann die Testphase mit einer Aussage abgeschlossen werden kann.

 

Schon heute ist der Autopilot in allen Dimensionen besser, ein voll funktionstüchtiges Flugzeug zu fliegen. Aber wenn es darum geht, eins in aussergewöhnlichen Situationen zu retten, oder eins mit entscheidenden Defekten in der Sensorik order in Signalen von aussen zu fliegen, dann trennt sich die Spreu vom Weizen. Dann merkt man auch erst den Unterschied, zwischen einem durchschnittlichen und einem guten Piloten.

 

Nach welchen Kriterien soll ein Computer sowas erkennen, seine kognitiven Fähigkeiten beschränken sich auf das, was er sieht. Ein Flugzeug sieht im Normalbetrieb keine Flüsse im Zusammenhang mit Landungen. Ein Mensch guckt auch mal Nachrichten oder Katatstrophenfilme... Ein künstlich intelligenter Computer mit kognitiven Fähigkeiten wird sicher gerade Autobahnstücke als etwas erkennen, das wie eine Landebahn ist, eventuell sogar Dächer von sehr großen, langen Fabrikgebäuden, oder leere Flutkanäle, aber wohl ziemlich sicher keine Flüsse.

 

Wenn sich Unfälle wie die des Tesla Autopiloten mit dem Truck häufen, wird man auch in der Automobilindustrie auf die Verfahren zurückgreifen, wie sie in der Luftfahrt, Kerntechnik, Großchemie oder anderen ähnlich riskanten Bereichen angewendet werden. Wenn erstmal soviele autonome Autos herumfahren, wie heute Flugzeuge fliegen, werden genug spektakuläre Unfälle passieren, die ein Umdenken erfordern werden. Wenn gar ein vielfaches an Autos autonom fährt, wird man vielleicht sogar noch strengere Kriterien anlegen müssen, als in der wesentlich weniger anspruchsvollen weil weitgehend regulierten und standardisierten Luftfahrt. Eine ILS Landung ist eine ILS Landung, Landebahnen, Lufträume, Antennen, Hindernisfreie Bereiche, alles ist standardisiert, aber jede Autobahnabfahrt oder Kreuzung ist individuell.

Für das Training selbstlernender Algorithmen werden möglichst viele Daten benötigt. Wenn wir die Piloten irgendwann ersetzen wollen, müssen wir erst einmal Unmengen an exakten Daten sammeln. Unfalluntersuchungsberichte sind sicher eine Quelle, wenn auch nicht detailliert genug. Deswegen ist der Bordingenieur erst einmal still dabei und lernt still dazu. Vielleicht können wir auch die gelegentlich gelangweilten Piloten damit beschäftigen, dem Bordingenieur im Flug beizubringen, was sinnvoll ist und was nicht. 

Dem selbstlernenden Algorithmus werden gewisse Randbedingungen gesetzt, beispielsweise dass eine grosse Piste besser wie eine kleine ist und der Hudson besser wie ein Hochhaus. Damit kann der Lernprozess beginnen, wofür die Erfahrungen der Piloten sicherlich nützlich sein können. 

Nein, ich denke nicht dass man in der Autoindustrie auf die Verfahren der Luftfahrt zurückgreifen wird. Insbesondere Tesla sammelt zur Zeit Daten und Erfahrungen und (die Entwickler) lernen daraus. Das geht einigermassen, weil die Konsequenzen eines Fehlers nicht Luftfahrt-dramatisch sind: Ein kaputtes Auto vs. ein kaputtes Flugzeug, anhalten möglich, tolerante Kunden. 

 

Übrigens: Google hat einen selbstlernenden Algorithmus entwickelt, dem in einer Simulation das Laufen beigebracht wurde. Es ist eine Frage der Zeit, bis dasselbe mit dem Landevorgang passiert. Und vorher schon mit dem Berechnen der optimalen Fuel-Menge. Und später dem Ausweichen von Gewitterwolken. Und dann vielleicht der korrekten Reaktion auf eine TCAS-Warnung. Und dann...

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Das geht einigermassen, weil die Konsequenzen eines Fehlers nicht Luftfahrt-dramatisch sind: Ein kaputtes Auto vs. ein kaputtes Flugzeug, anhalten möglich, tolerante Kunden. 

Ein Auto fährt allerdings im normalen Betrieb sehr viel häufiger dicht an Objekten vorbei, mit denen eine Kollision potentiell tödlich wäre. Und es operiert auf absolut nicht-standardisierten Straßen in einem völlig unkontrollierten Raum. Ich bin nach wie vor überzeugt davon, dass es viiiiiel einfacher war einen Autopiloten und Autoland zu entwickeln, als ein selbstfahrendes Auto. Deshalb gibt es das ja auch schon 60 Jahre länger...

Die Unterschiede in der Fehlerkonsequenz kommen praktisch nur von der Größe, wenn es tatsächlichlich knallt, sind bei Flugzeugen gleich bis zu 1000 Opfer zu erwarten, bei Autos eigentlich weniger als 10.

Ansonsten ist natürlich der Unterschied, dass "einfach anhalten" sprich, alles Abschalten, beim Flugzeug keine Option ist. Beim Auto bleibt das allerdings auch nicht ohne folgen, wenn ein Auto mit Fehlfunktion plötzlich eine Straße blockiert, ist ein Stau das mindeste, weitere Unfälle in diesem nicht unwahrscheinlich.

 

 

Wenn wir die Piloten irgendwann ersetzen wollen, müssen wir erst einmal Unmengen an exakten Daten sammeln.

Wobei wir inzwischen in einer Welt leben, in der gesammelte Daten schneller an Gültigkeit verlieren, als man neue sammeln kann. Was gleichermaßen Mensch und Maschine betrifft. Eine Datenbank ist heute schneller veraltet als man glaubt.

Der SFO Zwischenfall ist ein tolles Beispiel, die Datenbank muss auch erstmal "wissen", dass die linke Bahn ausser Betrieb ist und unsichtbar im dunklen liegt, also auch der Sensorik entgeht. Auch Computer betrachten die Welt mit Erwartungshaltung, suchen Übereinstimmung mit abgespeicherten Mustern. Stimmt die Realität nicht mit dem Datensatz überein, ist das Ergebnis unbefriedigend.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

............ Wenn wir die Piloten irgendwann ersetzen wollen, müssen wir erst einmal ................

Wer will das denn überhaut? Und wenn ja, warum? :unsure:

Ich phantasiere jetzt mal drauf los: "Wir bestimmen doch, wie die Welt aussieht, in der wir leben wollen!"

Oder etwa nicht? :(

 

Wenn es darum geht, alle Menschen vor Arbeit zu befreien, dann wäre doch der Pilotenberuf, der erste, für den man Ausnahmen zulassen sollte. Oder weißt Du viele andere Berufe, die von einem vergleichbar hohen Prozentsatz mit so großer Freude und Befriedigung ausgeübt wird? Mir fielen dazu nur künstlerische Tätigkeiten ein, wie z.B. Orchestermusiker bei den Wiener Philharmonikern. Aber wer würde die hören wollen, wenn die Instrumente von Computern "bedient" werden? :o

 

Gruß

Manfred

Bearbeitet von DaMane
Link zu diesem Kommentar
Auf anderen Seiten teilen

Wer will das denn überhaut?

Der Airbus Chef zum Beispiel? Oder alle, die Luftfahrt ausschließlich betreiben, um Geld zu verdienen.

 

Damit würden Pilotenstreiks wie aktuell bei der Lufthansa wirkungslos verpuffen.

 

oder in etwas freundlicher ausgedrückt

Airbus-Chef will durch diesen drastischen Schritt 70 Prozent aller Flugzeugabstürze verhindern

 

Wobei das mal wieder so eine typische management-Level-Sicht der Dinge ist...

Sämtliche Studien würden zeigen, dass die Unfallrate der Flugzeuge bei steigender Automatisierung und Technik sinkt, berichtet die „Welt“. Menschliches Versagen ist für schätzungsweise 70 Prozent aller tödlichen Flugzeugunfälle verantwortlich, so eine Studie der Allianz. 

Tolle Studie... Wieviele der 70% "Menschliches Versagen" Fälle sind tatsächlich ein Versagen, auf einen Systemfehler / ein Systemversagen zu reagieren?

Hätten wir einem pilotenlosen Flugzeug eher zugetraut, bei Ausfall des Autopiloten weiterfliegen zu können? (Vorsicht, diese Frage ist eigentlich keine, Antwort nicht erforderlich...)

 

Gruß

Ralf

Bearbeitet von Volume
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ein Auto fährt allerdings im normalen Betrieb sehr viel häufiger dicht an Objekten vorbei, mit denen eine Kollision potentiell tödlich wäre. Und es operiert auf absolut nicht-standardisierten Straßen in einem völlig unkontrollierten Raum. Ich bin nach wie vor überzeugt davon, dass es viiiiiel einfacher war einen Autopiloten und Autoland zu entwickeln, als ein selbstfahrendes Auto. Deshalb gibt es das ja auch schon 60 Jahre länger...

Die Unterschiede in der Fehlerkonsequenz kommen praktisch nur von der Größe, wenn es tatsächlichlich knallt, sind bei Flugzeugen gleich bis zu 1000 Opfer zu erwarten, bei Autos eigentlich weniger als 10.

Ansonsten ist natürlich der Unterschied, dass "einfach anhalten" sprich, alles Abschalten, beim Flugzeug keine Option ist. Beim Auto bleibt das allerdings auch nicht ohne folgen, wenn ein Auto mit Fehlfunktion plötzlich eine Straße blockiert, ist ein Stau das mindeste, weitere Unfälle in diesem nicht unwahrscheinlich.

 

Wobei wir inzwischen in einer Welt leben, in der gesammelte Daten schneller an Gültigkeit verlieren, als man neue sammeln kann. Was gleichermaßen Mensch und Maschine betrifft. Eine Datenbank ist heute schneller veraltet als man glaubt.

Der SFO Zwischenfall ist ein tolles Beispiel, die Datenbank muss auch erstmal "wissen", dass die linke Bahn ausser Betrieb ist und unsichtbar im dunklen liegt, also auch der Sensorik entgeht. Auch Computer betrachten die Welt mit Erwartungshaltung, suchen Übereinstimmung mit abgespeicherten Mustern. Stimmt die Realität nicht mit dem Datensatz überein, ist das Ergebnis unbefriedigend.

Wir sind uns auch ein wesentlich tieferes Sicherheitslevel im Strassenverkehr gewohnt. Dazu ist die Autoindustrie wesentlich experimentierfreudiger, schnelllebiger. Kombiniert mit der Möglichkeit des Not-Aus und dem Grössenunterschied potentieller Opfer führt dies dazu, dass die Bodenbus-Fahrer weit schneller ersetzt werden können wie jene des Airbus. 

Mit Daten sammeln meine ich mögliche Störungen, Wetterphänomene, Abläufe, Konflikte und Unfälle. Gerade im starren System der Luftfahrt veraltet dies nicht so schnell. Wir fliegen ja immernoch mit VOR und ILS aus den 1950ern durch die Gegend. Flughäfen ändern ebenfalls nicht vom einen Tag auf den anderen, dasselbe mit der Flugverkehrskontrolle. Wir benötigen massig Daten, um überhaupt erst im Labor künstliche Intelligenz für zukünftige Avionik (Bordingenieur) zu entwickeln. Deswegen sollten wir baldmöglichst damit anfangen. 

 

Hätten wir einem pilotenlosen Flugzeug eher zugetraut, bei Ausfall des Autopiloten weiterfliegen zu können? (Vorsicht, diese Frage ist eigentlich keine, Antwort nicht erforderlich...)

Genau dieses Schwarz-Weiss denken bezüglich künstlicher Intelligenz in der Luftfahrt stört mich. Es sollte nicht darum gehen, die Piloten zu ersetzen, sondern die Piloten zu unterstützen. Ein Autopilot stellt nicht falschen Motor ab und fliegt auch keinen Taxiway an - hat dafür beträchtliche andere Nachteile. Deswegen sollten wir die neuen Technologien zur Verbesserung der bestehenden Systeme nutzen. Meine Idee wäre es, das in Form eines Bordingenieurs umzusetzen. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Kombiniert mit der Möglichkeit des Not-Aus und dem Grössenunterschied potentieller Opfer führt dies dazu, dass die Bodenbus-Fahrer weit schneller ersetzt werden können wie jene des Airbus. 

​Genau, und deshalb wird auch fast jeder Airbus 99% der Zeit vom Piloten geflogen, während Autos zu 99% vom Autopiloten gefahren werden. Deahalb gibt es seit den 60ern Autopark beim Auto, aber immer noch kein Autoland beim Flugzeug.

Oder war es vielleicht doch umgekehrt?

 

 

Es sollte nicht darum gehen, die Piloten zu ersetzen, sondern die Piloten zu unterstützen.

Doch genau darum geht es. Die Airlines wollen Geld sparen, nicht zusätzliches ausgeben.

 

 

Deswegen sollten wir baldmöglichst damit anfangen. 

Gerade bei Computern veraltet alles derartig schnell, dass es sich erst lohnt anzufangen, wenn es sehr zeitnah umgesetzt wird.

Nichts ist so wertlos wie die Computertechnik von vor 10 Jahren.

 

 

Deswegen sollten wir die neuen Technologien zur Verbesserung der bestehenden Systeme nutzen. Meine Idee wäre es, das in Form eines Bordingenieurs umzusetzen. 

Genau das Gegenteil hat man vor 30 Jahren gemacht, den Bordingenieur durch Computer ersetzt.

Bei einigen Unfällen der letzten Jahre muss man sich allerdings fragen, ob man nicht besserer einen der Piloten ersetzt hätte, und heute mit einem Piloten und einem Ingenieur fliegen sollte (wobei beide die Basics draufhaben sollten, so dass sie sich im Normallfall ersetzen können, falls mal ein Pilot, und nicht die Technik ausfällt).

Wenn der Hauptjob des Piloten heute die Systemüberwachung ist, sollte das besser ein Systemtechniker machen.

 

Gruß

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

​Genau, und deshalb wird auch fast jeder Airbus 99% der Zeit vom Piloten geflogen, während Autos zu 99% vom Autopiloten gefahren werden. Deahalb gibt es seit den 60ern Autopark beim Auto, aber immer noch kein Autoland beim Flugzeug.

Oder war es vielleicht doch umgekehrt?

 

Doch genau darum geht es. Die Airlines wollen Geld sparen, nicht zusätzliches ausgeben.

 

Gerade bei Computern veraltet alles derartig schnell, dass es sich erst lohnt anzufangen, wenn es sehr zeitnah umgesetzt wird.

Nichts ist so wertlos wie die Computertechnik von vor 10 Jahren.

 

Genau das Gegenteil hat man vor 30 Jahren gemacht, den Bordingenieur durch Computer ersetzt.

Bei einigen Unfällen der letzten Jahre muss man sich allerdings fragen, ob man nicht besserer einen der Piloten ersetzt hätte, und heute mit einem Piloten und einem Ingenieur fliegen sollte (wobei beide die Basics draufhaben sollten, so dass sie sich im Normallfall ersetzen können, falls mal ein Pilot, und nicht die Technik ausfällt).

Wenn der Hauptjob des Piloten heute die Systemüberwachung ist, sollte das besser ein Systemtechniker machen.

Es geht doch nicht darum, wie oft das Vehikel heute tatsächlich manuell gesteuert wird. Der Steuermann bzw. die Steuerfrau werden nach Anwesenheit bezahlt und nicht nach Anzahl Steuerbewegungen. Die Frage ist, welche Kriterien erfüllt sein müssen, damit wir den Menschen aus der Steuerung entfernen können. Und diese sind bodengebunden sehr viel einfacher zu erfüllen, es wird deswegen nicht nur bei Tesla schon gemacht (inklusive Unfälle). 

 

Den Bordingenieur zu entwickeln ist eine Massnahme, um die Sicherheit zu erhöhen. Es ist in der Tat leider nicht zu erwarten, dass Airlines dafür Geld ausgeben. Im Rahmen eines breit getragenen Forschungs-/Entwicklungsprogramms werden sie sich vermutlich dennoch beteiligen. Ein solches Projekt müsste jedoch von einem Flugzeughersteller ausgehen, anderweitig kann ich mir das kaum vorstellen. 

 

Ich spreche von Daten sammeln. Diese sind genau so aktuell, wie die Umwelt, die sie abbilden. Solange das System Luftfahrt nicht gross ändert, sind diese Daten noch lange gültig. Wir benötigen sie, um selbstlernende Algorithmen sinnvoll zu entwickeln. Ohne geht das nämlich nicht. Um qualitativ hochwertige Daten zu erhalten, wäre es in der Tat wünschenswert, wenn die Piloten diese währen den langwierigen Autopilot-Flugphasen verbessern helfen. Dafür müssten sie Richtung Systemtechnik weitergebildet werden. Was wiederum die Frage der Finanzierung aufwirft...

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Wer will das denn überhaut? Und wenn ja, warum? :unsure:

.....................

 

Der Airbus Chef zum Beispiel? Oder alle, die Luftfahrt ausschließlich betreiben, um Geld zu verdienen.

......................

 

 

Gruß

Ralf

Ja, aber.....

 

...................: "Wir bestimmen doch, wie die Welt aussieht, in der wir leben wollen!"

Oder etwa nicht?

Bin ja schon wieder ruhig   :( 

 

Gruß

Manfred

Link zu diesem Kommentar
Auf anderen Seiten teilen

Für das Training selbstlernender Algorithmen werden möglichst viele Daten benötigt. Wenn wir die Piloten irgendwann ersetzen wollen, müssen wir erst einmal Unmengen an exakten Daten sammeln. ... Vielleicht können wir auch die gelegentlich gelangweilten Piloten damit beschäftigen, dem Bordingenieur im Flug beizubringen, was sinnvoll ist und was nicht. 

Dem selbstlernenden Algorithmus werden gewisse Randbedingungen gesetzt, beispielsweise dass eine grosse Piste besser wie eine kleine ist und der Hudson besser wie ein Hochhaus. Damit kann der Lernprozess beginnen, wofür die Erfahrungen der Piloten sicherlich nützlich sein können. 

Sorry, aber das ist AI-Denke der 70er und 80er Jahre. Heute sind wir deutlich schlauer!

 

Es ist eher kontraproduktiv, wenn der Pilot versucht, dem Computer irgendwas beizubringen. Der Computer "sieht zu" und lernt aus dem, was er sieht.

 

Auch wird die Erfahrung total überschätzt. Wenn man nicht die (irgendwie drollige) Vorstellung hat, dass die AI zum Lernen im Flugzeug sitzt und dabei beim Erfahrungsaufbau durch die Flüge dieses Flugzeuges beschränkt ist, dann erkennt man schnell, dass die AI pro Tag viel mehr Erfahrung sammeln kann, als jeder Pilot in seinem ganzen Leben. Man kann ja auf *allen* Flügen Daten sammeln und einen Computer damit füttern.

 

Der Versuch, dass Menschen Computern die Erfahrung weiter geben hätte gerade nie zu Zug 37 geführt - nach aller menschlicher Erfahrung war das nämlich dumm.

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Florian: Du hast schon mehrmals "Zug 37" erwähnt. Kannst du dazu mal einen Link oder mehr Kontext reinstellen? (Google liefert keine nützlichen Resultate..)

 

Gruss,

Dominik

Link zu diesem Kommentar
Auf anderen Seiten teilen

Aber natürlich gerne - und sorry! Da das für alle die hier mitdiskutieren völlig klar ist habe ich vergessen, für diejenigen die sich mit künstlicher Intelligenz nicht so auskennen die Erklärung dazu zu schreiben.

 

Es geht um den 37ten Zug im zweiten Spiel von AlphaGo gegen Lee Sedol*. Nach Meinung vieler AI-Forscher (habe zufällig erst neulich mit Nick Bostrom darüber gesprochen) ist das ein Ereignis, dessen Bedeutung für die AI in etwa die gleiche sein könnte, wie die von Linberghs Flug für die Luftfahrt.

 

Was ist passiert:

Im 37. Zug in diesem Spiel hat AlphaGo einen Zug gespielt, der nach über 1000jähriger Go-Theorie als schwerer Fehler gilt. Also nicht unpräzise gespielt, oder eine Variante entdeckt, über die bisher noch nie jemand drüber nachgedacht hatte, sondern einen Fehler der "schwere", dass man Jugendlichen im Jugendtraining dafür "auf die Finger haut" und sie fragt, was sie geraucht haben. Live-Kommentatoren vermuteten einen Fehler im Programmcode oder gar dass der Menschliche Bediener den Stein schlicht falsch gesetzt hat. Allerdings hat sich im Verlauf des Spiels rausgestellt, dass der Zug richtig war und AlphaGo hat klar gewonnen. 

Selbst im Nachgang können die besten Go-Meister nicht erklären, warum der Zug eigentlich stimmt und welche strategische Idee dahinter stecken könnte (Zug 37 ist relativ früh in einem Go-Spiel, so dass die Züge noch sehr strategisch sind und nicht taktisch durch Kombinatorik vorberechenbar).

 

Hätte man bei der Programmierung von AlphaGo menschliche Go-Meister gefragt, welche "Randbedingungen" es gibt oder welche Erfahrungen sie an die Maschine weiter geben können, dann wäre sehr sicher dabei gewesen, dass man solche Züge nicht macht. Hätte im Sinne der hier vorgeschlagenen Symbiose zwischen Mensch und Maschine ein menschlicher Go-Profi in dem Spiel daneben gesessen, dann hätte er garantiert entschieden, dass dieser Zug des Computers ein offensichtlicher Fehler sein muss und die Entscheidung des Computers überstimmt. 

 

Da der Zug so "falsch" war, konnte AlphaGo ihn auch nicht durch Analyse von Spielen menschlicher Spieler "lernen". Er ist weit ausserhalb dessen, was gute menschliche Spieler je gespielt hätten. Der Computer hat selbständig etwas gelernt, was ihm kein Mensch hat beibringen können und was allem widerspricht, was Menschen für richtig halten.

 

Deswegen denken eben viele , dass dies der Anfang von echter künstlicher Intelligenz war.

 

Ich hoffe, damit ist die Referenz geklärt.

Florian 

 

* Für die, die noch ein bisschen weiter weg vom Thema sind: Im Frühjahr 2016 gab es ein Turnier des Go-Programms Alpha-Go gegen den damaligen Go-Weltmeister Lee Sedol. Im Gegensatz zu Schach, das viel weitergehend kombinatorisch lösbar ist, galten Computer damals noch als den Menschen  im Go haushoch unterlegen. Alphago gewann das Turnier 4-1.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sehr interessant, vielen Dank Florian! Das war mir bisher nicht bekannt. 

 

Einen Einwand habe ich: Die Fliegerei ist wesentlich vielfältiger wie das abstrakte, ja schon fast mathematische, Spiel Go. Zusätzlich kennen wir die Systeme und ihr physikalisches Verhalten, können das zukünftige Verhalten eines Flugzeuges also ziemlich genau berechnen. Folglich geht es mehr darum, die unzähligen Zustände für Computer lesbar zu machen und dann so verarbeiten, dass wir zu einem sinnvollen Ergebnis kommen. Und es sind Menschenleben im Spiel - wir können nicht einfach ungeprüft darauf vertrauen, dass neuartiges Verhalten künstlicher Intelligenz tatsächlich sinnvoll ist und diese einfach mal machen lassen. Sowas müsste man in einer Simulation machen. Aber dann nutzen wir das Potential der künstlichen Intelligenz eben doch nicht im Flugzeug... Schlussendlich ist es eine Frage des Vertrauens, ob wir der natürlichen oder künstlichen Intelligenz mehr vertrauen.

 

Nun entsteht menschliches Vertrauen niemals schlagartig. Es muss langsam aufgebaut werden. Das können wir mit dem Bordingenieur. Falls die künstliche Intelligenz trotz des berechenbaren Systems Fliegerei auf radikal neue Ideen kommen sollte, können wir dieses Potential in der ersten Datensammel- und Lernphase des Bordingenieurs erkennen. Ein Zug 37 kann dann in Ruhe on ground simuliert und analysiert werden. Erst falls irgendwann genug Vertrauen besteht, dass der Bordingenieur seine Sache gut macht, sollten wir ihm mehr Kompetenzen übertragen. Alles andere fände ich töricht angesichts des heute bereits extrem gut funktionierenden Systems Luftfahrt. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sehr interessant,  "faszinierend", würde Mr. Spock sagen;-)
 
 Danke ebenfalls für die Erläuterungen.
 
"Leben und Tod": Bezeichnenderweise gibt es eben diesen Begriff beim Go-Spiel, wenn es um Taktik und Strategie geht (wie ich bei Wikipedia herausgegoogelt habe...)
Womit wir wieder beim "künstlichen Bordmechaniker" wären, wo's ja auch darum geht, sozusagen, um Leben und Tod.

 

"Ein Problem intuitiv erfassen":

 

"Intuition":

 

Gibt es den Begriff eigentlich im Rahmen der künstlichen Intelligenz?

 

Gruß

Richard

Link zu diesem Kommentar
Auf anderen Seiten teilen

....................................

 

Da der Zug so "falsch" war, konnte AlphaGo ihn auch nicht durch Analyse von Spielen menschlicher Spieler "lernen". Er ist weit ausserhalb dessen, was gute menschliche Spieler je gespielt hätten. Der Computer hat selbständig etwas gelernt, was ihm kein Mensch hat beibringen können und was allem widerspricht, was Menschen für richtig halten.

 

Deswegen denken eben viele , dass dies der Anfang von echter künstlicher Intelligenz war.

 

Ich hoffe, damit ist die Referenz geklärt.

Florian 

 

* Für die, die noch ein bisschen weiter weg vom Thema sind: Im Frühjahr 2016 gab es ein Turnier des Go-Programms Alpha-Go gegen den damaligen Go-Weltmeister Lee Sedol. Im Gegensatz zu Schach, das viel weitergehend kombinatorisch lösbar ist, galten Computer damals noch als den Menschen  im Go haushoch unterlegen. Alphago gewann das Turnier 4-1.

Ich kann deine Begeisterung nachvollziehen, nicht aber die Sorglosigkeit gegenüber einer solchen Entwicklung. Was gibt dir den Optimismus, daß sich eine erfolgreiche Entwicklung und Verbreitung von KI-Systemen am Ende nicht gegen uns Menschen richtet? Warum sollten sich solche Systeme, denen man von Anfang an beigebracht hat, daß sie alles besser Wissen, besser können, und besser machen als Menschen, sich überhaupt dafür interessieren, was Menschen wollen und gut finden. Es wird dazu führen, daß man dieser Technologie mehr und mehr "das Feld überläßt", weil sie Kosten senkt, oder weil es so schön bequem ist.  Wenn AlphaGo gewinnt, muß er doch recht haben. Es wäre grenzenlos naiv zu glauben, daß sich eine solche Entwicklung nicht verselbstständigt, sobald sie sich erfolgreich etabliert und emanzipiert hat. Einfach "den Stecker ziehen" wird nicht mehr möglich sein.

Wenn uns KI eines Tages tatsächlich in allen Bereichen der Intelligenz schlägt, was haben wir dann gewonnen? Vielleicht dürfen wir dann dem KI-Master-Mind noch huldigen.....brrrrrrh

 

Gruß

Manfred

Bearbeitet von DaMane
Link zu diesem Kommentar
Auf anderen Seiten teilen

Einen Einwand habe ich: Die Fliegerei ist wesentlich vielfältiger wie das abstrakte, ja schon fast mathematische, Spiel Go. Zusätzlich kennen wir die Systeme und ihr physikalisches Verhalten, können das zukünftige Verhalten eines Flugzeuges also ziemlich genau berechnen.

Natürlich ist automatisches Fliegen eine andere Art von Herausforderung, als Go spielen. Es ging ja auch darum, wie Maschinen heutzutage lernen.

"Ein Problem intuitiv erfassen": "Intuition":

Gibt es den Begriff eigentlich im Rahmen der künstlichen Intelligenz?

Das ist eine eher philosophische Frage. Zunächst müsste man mal sauber definieren, was "Intuition" eigentlich meint. Eine der Hauptsrömungen würde so etwas sagen, wie: "Intuition ist eine Art der Entscheidungsfindung, bei dem sich der Entscheidende keines kognitiven Prozesses der zu dieser Entscheidung geführt hat bewusst ist".

Das Schlüsselwort solcher Definitionen ist "bewusst". Wir wissen heute, dass die Prozesse im Gehirn bei als intuitiv empfundenen Entscheidungen nicht wesentlich anders sind, als bei kognitiven Entscheidungen. Daher ist das eine sehr subjektive Kategorisierung.

 

Da Computer kein Bewusstsein haben, kann es zumindest in dieser Definition keine Intuitiven Entscheidungen des Computers geben.

 

Das Kernproblem ist aber: Die meisten Menschen - leider auch viele, die darüber reden - können nicht mal ohne rumzustammeln sagen, was Intelligenz eigentlich ist (bzw. was sie meinen, wenn sie von Intelligenz reden). Dann ist es schwer, das von anderen Begriffen abzugrenzen ...

 

Florian

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

es wird deswegen nicht nur bei Tesla schon gemacht

Teslas fahren schon ohne Fahrer ?

 

Ich finde es immer wieder lustig, wenn die Automobilindustrie heute etwas einführt, was in der Luftfahrt seit den 60ern gemacht wird, dann gilt die Automobilindustrie als innovativ (weil sie es einführt) und die Luftfahrt als rückständig (weil sie seit über 50 Jahren das gleiche macht).

Die Luftfahrt ist auf dem Feld "Autonomes steuern" der Automobilindustrie um 60 Jahre voraus !

(Fly-by-Wire analog zu elektronischer Drosselklappe beim Auto hatte etwa 20 Jahre Vorsprung, Brake-by-Wire macht ausser der Luftfahrt nur die Formel 1, und das auch nur an der Hinterachse, Das "Navi" hat die Luftfahrt auch sicher 20 Jahre länger als die Automobilwelt, und in Flugmotoren gibt es Designdetails, die die Automobilindustrie erst 50 Jahre später übernommen hat, oder sogar bis heute nicht standardmäßig kennt, z.B. Ölthermostate zur Regelung der Motoröltemperatur)

 

Teslas machen das, was Flugzeuge seit den 60ern flächendeckend machen, sie fahren in bestimmten Phasen der Reise selbstständig, während ein Fahrer bereitsteht jederzeit einzugreifen.

 

Das Schachspiel ist sicher ein extrem gutes Beispiel für künstliche Intelligenz, denn Schach ist auch eine künstliche Umwelt, mit 100% festen, menschgemachten Regeln. Beim Schach gibt es nur eine endliche Menge klar definierter Ereignisse, beim Schach gibt es keine Zufälle. Und es sind nur genau 2 Parteien beteiligt. Der Physiker scheitert schon mit der Berechnung von Dreikörpersystemen, beim Verkehr reden wir mal mindestens von 100 aktuell interagierenden Teilnehmern (pro Flug/Fahrt), die ausserdem nur beschränkt Regeln folgen und nur beschränkt vorhersagbar handeln.

Wenn es Schach nicht schon gegeben hätte, hätten es die KI Spezialisten als Testfeld für ihre Computer erfinden müssen.

 

Da die Luftfahrt in vielen Bereichen auch ganz klaren Regeln folgt (viel mehr, als der Straßenverkehr), und ausserdem weitestgehend zentral gemanaged wird (Stichwort Fluglotsen), ihre "Welt" gut überwacht ist (z.B. Wetter) und die zugehörigen Informationen elektronisch verfügbar sind, kann ich mir das pilotenlose Flugzeug durchaus zeitnah vorstellen. Nur dass es tatsächlich sicherer sein wird, das kann ich mir nicht ansatzweise vorstellen, da die Zuverlässigkeit der Komponenten und die Möglichkeit, mit reduzierten Resourcen auf Fehler zu reagieren auf absehbare Zeit nicht verfügbar sein wird.

 

 

"faszinierend", würde Mr. Spock sagen;-)

Mr. Spock ist das perfekte Beispiel für die Grenzen des rein logischen, ohne die Hallodries auf der Enterprise hätte die so mache Mission nicht gemeistert.

 

live long and prosper

Ralf

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

Das Kernproblem ist aber: Die meisten Menschen - leider auch viele, die darüber reden - können nicht mal ohne rumzustammeln sagen, was Intelligenz eigentlich ist (bzw. was sie meinen, wenn sie von Intelligenz reden). Dann ist es schwer, das von anderen Begriffen abzugrenzen ...

 

 

Da lässt sich der Begriff "Dummheit" wohl einfacher definieren:-)

 

Haste schon recht:    Intelligenz ist ziemlich unintelligibel.

 

Gruß

Richard

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich kann deine Begeisterung nachvollziehen, nicht aber die Sorglosigkeit gegenüber einer solchen Entwicklung. Was gibt dir den Optimismus, daß sich eine erfolgreiche Entwicklung und Verbreitung von KI-Systemen am Ende nicht gegen uns Menschen richtet?

Woher willst Du wissen, dass ich das optimistisch sehe - nur weil ich hier schreibe, dass das passieren wird heisst das doch nicht, das ich Alles gut finde.

 

Allerdings kann ich auch den kulturpessimistischen Dystopien a la Capcek, Scott, Williamson (und vielen danach) nicht viel abgewinnen. Genausowenig wie dem unbegrenzten Zukunftsoptimismus von Asimov et al.

Auch wenn Computer viele Fähigkeiten haben sind sie noch sehr weit davon entfernt, eigenständig etwas zu unternehmen, was sich "gegen uns richtet". Skynet gibt es noch (lange) nicht. Und nicht ein Computer ist auf die Idee gekommen, man könnte ja mal Go spielen, sondern Menschen, ihm das lernen zu lassen.

 

Eigentlich ist mein Punkt aber ein ganz anderer: Computer können gar nicht so viel! Zumindest nichts, was den Kern des menschlichen ausmacht.

Intelligenz ist ein unscharf definierter, oft missbrauchter und vielfach total überhöhter Begriff - insbesondere in Zusammenhang mit "künstlicher Intelligenz". Würden wir nicht über "künstliche Intelligenz" reden, sondern über "Mustererkennung und automatische Klassifikation", dann wäre das wissenschaftlich zwar exakt das gleiche, die Diskussion würde - insbesondere von Laien - aber deutlich weniger emotional geführt.

 

Und genau darum geht es: So, wie wir vor gerade mal 50 Jahren festgestellt haben, dass Maschinen besser rechnen können als Menschen* (und nebenbei bemerkt sitzen heute in den Finanzabteilungen von Unternehmen mehr und nicht weniger Mitarbeiter!) merken wir jetzt halt, dass sie in Mustererkennung und Klassifikation auch besser sind. Na und?

Das Einzige, was einige daran emotional betrifft ist die Tatsache, dass wir in dem Zusammenhang realisieren, dass viele Tätigkeiten die wir bisher für relativ anspruchsvoll gehalten haben (wie eben z.B. Autofahren oder Fliegen) am Ende relativ triviale Mustererkennung ist und das, was wir "Erfahrung" nennen auch nur statistisches Lernen auf sehr kleinen Datensätzen, was nur deswegen besonders war, weil die Daten auf Grund von "Herrschaftswissen" und technischen Beschränkungen nicht allgemein zugänglich sind.

 

In so fern bin ich im Moment natürlich optimistisch: Von dem, was den Kern des Menschen ausmacht, nämlich Emotionalität (dem Computer ist egal, ob er Schach oder Go spielt) und vor Allem die Fähigkeit, Handlungen und Entscheidungen einen Sinn zu geben, sind wir bei Computern noch sehr weit entfernt.

Man soll ja niemals nie sagen, aber ich glaube nicht dran, dass ich noch erleben werde, dass ein Computer sich verliebt - obwohl das Asimov in seinem Foundation-Zyklus (spätestens im 200-Jahre Mann, aber angedeutet auch schon in früheren Geschichten) vorhergesagt hat.

 

Florian

 

* Und es gab auch da eine (sehr kurze) übergangszeit in der Menschen gedacht haben, dass man besser das Ergebnis der Maschinen noch mal von Menschen nachrechnen läßt, weil man ja nie sicher sein kann, ob das auch wirklich stimmt...

Bearbeitet von Chipart
Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...