Was können wir denn von Geräten erwarten, die intelligenter sind als jeder Mensch?
Was können wir damit eigentlich sinnvolles tun?
Was können wir denn von Geräten erwarten, die intelligenter sind als jeder Mensch?
Was können wir damit eigentlich sinnvolles tun?
Verstand op nul, frituur op 180.
.
Geändert von Wild Haggis (15. März 2022 um 19:05 Uhr)
Ich glaube nicht, dass wir etwas erwarten können denn letzten Endes interessieren uns weniger intelligente Spezies auch nicht in Bezug auf eine Zusammenarbeit. Wo es anfangs noch einer Differenz zwischen Menschenaffen und uns gleichkommt wird diese Kluft schnell wegen einer Selbstverbesserung (Fortschritt ermöglicht Fortschritt) eher wie Wurm und Mensch. Und selbst das trifft es nicht denke ich. Es würde uns nur etwas bringen wenn wir integraler Bestandteil dieses werden. Die Frage ist dann: Will so eine Entität das überhaupt? Und wollen wir das?
@VK: Die Frage ist: So als Typ 2 Zivilisation... macht es da überhaupt Sinn sich auszubreiten?
Die ganze Sache mit der Intelligenz ist viel komplexer als die Herren Singularisten sich das vorstellen, meine ich.
Zum ersten ist eine höhere Intelligenz für sich genommen kein großer Vorteil. So ein Urmensch war so intelligent wie wir heute, hatte aber keinen großen Vorteil gegenüber den Tieren. Erst wenn man auch an Wissen rankommt bringt die Intelligenz was. Und es ist viel zu aufwändig, dieses Wissen ganz alleine zu sammeln.
Zum zweiten mal sollte man wissen dass es auf zwei Faktoren ankommt: Mehr Energiezufuhr bedeutet mehr Rechenleistung. Allerdings auch mehr Aufwand bei der Kühlung. Und ein großes Gehirn arbeitet besser als ein kleines Gehirn. Beim großen Gehirn gibt es aber einen Grenznutzen. Denn die Kommunikationszeit steigt dadurch an und irgendwann bringt eine zusätzliche Berechnungseinheit am Rand keine Beschleunigung mehr.
Höchstwahrscheinlich wird die heutige Situation auch in Zukunft noch existieren: Bei manchen Aufgaben ist das menschliche Gehirn überlegen. Bei anderen Aufgaben ist es unterlegen. Brauche ich einen Computer der im Straßenverkehr Entscheidungen innerhalb von einer Millisekunde trifft? Oder einen, der nach einer Stunde rechnen das globale Wetter für nächste Woche bestimmt?
Wenn man eine künstliche Intelligenz erschaffen möchte die alle Menschen abmurkst, dann sollte man eine Maschine mit menschlicher Intelligenz und menschlichen Fähigkeiten erschaffen, die am Fließband und mit voll funktionsfähiger Software hergestellt wird und sich vermehren will. Irgendwelche Superintelligenz ist überhaupt nicht notwendig und womöglich nur bedingt nützlich.
.
Geändert von Wild Haggis (15. März 2022 um 19:05 Uhr)
Nun so eine KI hätte doch aber den Vorteil auf Wikipedia zugreifen zu können, um es mal profan zu äußern. Wir haben heute den Vorteil auf bereits bestehendes Wissen zuzugreifen und es zu verfeinern. Die KI würde ebensowenig bei Null anfangen, oder?
Ja, aber muss man sich wirklich Sorgen um eine Kühleffizienz machen? Dass länger zurückzulegende Wege (so verstehe ich es) ineffizienter bei wachsender Größe sind leuchtet mir ein. Dann wiederum, alles wird kleiner. Ist eine Verkürzung solcher (mechanischen) Wege irgendwann beendet? Momentan deutet es ja eher auf einen gegenteiligen Trend hin.Zum zweiten mal sollte man wissen dass es auf zwei Faktoren ankommt: Mehr Energiezufuhr bedeutet mehr Rechenleistung. Allerdings auch mehr Aufwand bei der Kühlung. Und ein großes Gehirn arbeitet besser als ein kleines Gehirn. Beim großen Gehirn gibt es aber einen Grenznutzen. Denn die Kommunikationszeit steigt dadurch an und irgendwann bringt eine zusätzliche Berechnungseinheit am Rand keine Beschleunigung mehr.
Ich weiß nicht. Im von Phex verlinkten Artikel geht es auch darum, dass man das Gehirn irgendeines kleinen Wurmes erfolgreich simuliert hat. Dass dies auch in größerem Maßstab irgendwann möglich ist halte ich wiederum für wahrscheinlich. Und wenn man dann so ein Teil hat kann man es noch verbessern. Je nachdem welche Aufgabe so ein Gehirn dann hat kann man zum Beispiel auch Teile weglassen die für Motorik zuständig sind.Höchstwahrscheinlich wird die heutige Situation auch in Zukunft noch existieren: Bei manchen Aufgaben ist das menschliche Gehirn überlegen. Bei anderen Aufgaben ist es unterlegen. Brauche ich einen Computer der im Straßenverkehr Entscheidungen innerhalb von einer Millisekunde trifft? Oder einen, der nach einer Stunde rechnen das globale Wetter für nächste Woche bestimmt?
Es geht doch nicht darum Menschen abzumurksen, zumindest mir nicht.Wenn man eine künstliche Intelligenz erschaffen möchte die alle Menschen abmurkst, dann sollte man eine Maschine mit menschlicher Intelligenz und menschlichen Fähigkeiten erschaffen, ...
Der Unterschied wie er sich mir darstellt wäre eher der einer Amöbe zu einer Ameise - also gewaltig. Da wäre ohnehin nix mehr menschlich.
Geändert von Baldri (08. September 2016 um 19:48 Uhr)
An das Wissen heute ran zu kommen ist doch easy peasy, siehe Watson von IBM.
Das ist korrekt für eine einzelne Einheit, aber eine entsprechende Maschine muss ja nicht auf einem physischem Rechner laufen sondern kann verteilt laufen. Ja die Kommunikationszeiten wächst mit der Distanz, aber wenn Rechenzeit der limitierende Faktor einer Operation ist kann man dennoch eine Aufgabe schneller bearbeiten wenn man sie verteilt berechnetZum zweiten mal sollte man wissen dass es auf zwei Faktoren ankommt: Mehr Energiezufuhr bedeutet mehr Rechenleistung. Allerdings auch mehr Aufwand bei der Kühlung. Und ein großes Gehirn arbeitet besser als ein kleines Gehirn. Beim großen Gehirn gibt es aber einen Grenznutzen. Denn die Kommunikationszeit steigt dadurch an und irgendwann bringt eine zusätzliche Berechnungseinheit am Rand keine Beschleunigung mehr.
Ja und ja? Es gibt viele menschliche Aspekte die wir kaum verstehen und daher auch kaum simulieren können, Kreativität wär da so ein Punkt. Wobei hier auch die Frage ist: Was ist Kreativität überhaupt? Neue Musik können auch Computer allein machen mit Lernalgorithmen/Neuralen Netzen, die resultate sind dort eben durch die Algorithmen bestimmt... aber ist das beim Menschen so anders? Sind ganz interessante Fragen ob der Mensch irgendwas inhärentes hat was man nicht in Software stecken/simulieren könnteHöchstwahrscheinlich wird die heutige Situation auch in Zukunft noch existieren: Bei manchen Aufgaben ist das menschliche Gehirn überlegen. Bei anderen Aufgaben ist es unterlegen. Brauche ich einen Computer der im Straßenverkehr Entscheidungen innerhalb von einer Millisekunde trifft? Oder einen, der nach einer Stunde rechnen das globale Wetter für nächste Woche bestimmt?
Die Gefahr ist an der Singularität ist doch, dass man eine erst primitive AI hat die sich selbst immer weiter entwickelt und dann "plötzlich" eine Intelligenz auf Menschenebene wird. Es gibt auch andere technologische Distopieoptionen (Grey Goo wär auch so was, ganz ähnlich deinem Repliaktoren ), ganz spannendWenn man eine künstliche Intelligenz erschaffen möchte die alle Menschen abmurkst, dann sollte man eine Maschine mit menschlicher Intelligenz und menschlichen Fähigkeiten erschaffen, die am Fließband und mit voll funktionsfähiger Software hergestellt wird und sich vermehren will. Irgendwelche Superintelligenz ist überhaupt nicht notwendig und womöglich nur bedingt nützlich.
----------------------------------
Kleine Story zu lernenden Maschinen etc:
Ich hab selbst vor nem halben Jahr einen selbst lernenden Bot für eine AI Challenge geschrieben mit nem kleinen Team an meiner Uni, das Ziel war es bei diesem Spiel mitzumachen: http://vindinium.org/
Wir haben dabei mit reinforcement learning gearbeitet, genauer Q-learning und auch dem sarsa-lamda-Algorithmus... und es gab schon einige lustige Szenarien. Unser Bot, genannt Bender weil warum nicht, hatte aufgrund eines Implementationsfehlers angefangen ständig an die Bar zu gehen und zu saufen. Einmal an der Bar hat er nicht mehr aufgehört... und das war nachdem wir ihn Bender getauft hatten, hatte also super gepasst. Der Grund war, dass wir ihm "Belohnungen" geben wenn er an ne Bar mit wenig Leben geht und dadurch HP erhält... geht er mit vielen HP an die Bar sollte er eine "Bestrafung" erhalten da ein Barbesuch Geld kostet. Nun war die Implementation blöderweise so, dass er bei exakt 100 hp dennoch eine Belohnung erhalten hat (CURRENT_HP < 100... statt <= , war schlimmer weise auch noch mein Fehler), wodurch er mit vollen Leben einfach an der Bar sitzen geblieben ist .
War auf jedenfall sehr faszinierend zu sehen wie der Bot langsam aber sicher gelernt hat, erst ist er komplett zufällig rumgelaufen und je länger wir ihn spielen lassen haben desto besser wurde er, ist dann direkt zu den Minen gelaufen, hat ganz am Ende auch low HP Gegner gejagd um ihre Minen zu übernehmen etc, war echt cool .
Was hat das mit dem Thema hier zu tun? Nicht viel . Wir hatten natürlich komplette kontrolle über den Bot indem wir selbst bestimmt haben wie er sein Umfeld wahr nimmt und für welche Aktionen er eine Belohnung/Bestrafung erhält. Wir haben aber auch mit dem Gedanken am Ende gespielt ob es nicht möglich wäre auch diese Aspekte mit lernende Algorithmen zu implementieren statt es ihm vorzugeben aber das ist dann schnell richtig komplex geworden.
Interessant sind auch andere Themen wie evolutionäre Algorithmen indem ähnlich der natürlichen Evolution versucht wird nicht gute Alternativen zu löschen und nur die, die gut zum Ziel hinarbeiten, zu behalten und weiter zu mutieren, auch ein spannendes Thema .
Und natürlich die neuralen Netze, mit denen hab ich mich bisher aber noch wenig beschäftigt, wär eigentlich auch mal was
:winK:
|學而不思則罔,思而不學則殆。 ~ 孔子|
| Lernen ohne zu denken ist sinnlos, denken ohne zu lernen gefährlich. ~ Kong Zi |
| During times of universal deceit, telling the truth becomes a revolutionary act ~ George Orwell |
SdM Dez16 - XCOM2 Make Humanity Great again
Also, aber hmm. Zwei Entitäten haben einen exakt gleichen Wissensfundus. Eine davon kann mehr Rechenoperationen in einer gewissen Zeitspanne ausführen. Welche forscht besser? Weißte wie ich meine?
Es ging doch erstmal drum das ihr Startpunkt praktisch die gesamte Menschliche Wissensbasis beinhaltet, wenn die Maschine/Maschinenverband dann entsprechend selbstlernend ist kommt da zusätzliches Wissen dazu welches wir uns noch nicht angeignet haben.... ich versteh deinen Punkt nicht so ganz
|學而不思則罔,思而不學則殆。 ~ 孔子|
| Lernen ohne zu denken ist sinnlos, denken ohne zu lernen gefährlich. ~ Kong Zi |
| During times of universal deceit, telling the truth becomes a revolutionary act ~ George Orwell |
SdM Dez16 - XCOM2 Make Humanity Great again
Das Sammeln von neuem Wissen in Form von Forschung ist aufwändig. Man muss Daten sammeln, sie auswerten und dann Hypothesen sortieren. Wenn man dann noch erfinden will braucht es Tests, Prototypen usw.
Ich habe keinen Zweifel daran dass man mit einer superintelligenten KI schneller forschen könnte. Aber wahrscheinlich wäre es immer noch so langsam dass ein menschlicher Experte diese Forschung auch problemlos nachvollziehen kann.