Seite 2 von 12 ErsteErste 123456 ... LetzteLetzte
Ergebnis 16 bis 30 von 178

Thema: Neuronale Netze oder die Entwicklung künstlicher Intelligenz

  1. #16
    Administrator
    Registriert seit
    20.08.04
    Beiträge
    8.965
    Was können wir denn von Geräten erwarten, die intelligenter sind als jeder Mensch?

    Was können wir damit eigentlich sinnvolles tun?
    Verstand op nul, frituur op 180.

  2. #17
    Beyond Mars Avatar von [VK]
    Registriert seit
    05.02.08
    Beiträge
    59.500
    Zitat Zitat von Baldri Beitrag anzeigen
    Also Phex verlinkter Artikel war sehr spannend. Wenn wir nach und nach durch anorganisches Material ersetzt werden würden und über Wifi kommunizieren, was hält uns dann noch auf überhaupt eine physische Präsenz aufrecht zu erhalten? Und vielleicht befinden wir uns ja schon in den Weiten eines gigantischen neuronalen Systemes, genannt Universum.

    Allerdings würde solch ein System die Besiedlung anderer Welten komplett überflüssig machen denke ich. Die dort beschriebene Superintelligenz könnte bestimmt jedes Problem lösen.
    Ich glaub die Idee ist relativ neu und als Gegensatz zur älteren "Organismen müssen Expandieren"-Theorie. Das ist glaub unter Singularität bekannt.

  3. #18
    Registrierter Benutzer
    Registriert seit
    29.06.08
    Beiträge
    1.276
    .
    Geändert von Wild Haggis (15. März 2022 um 19:05 Uhr)

  4. #19
    Blue Heeler Genießer Avatar von Baldri
    Registriert seit
    15.11.08
    Ort
    Brisbane im Traum
    Beiträge
    30.450
    Zitat Zitat von Shakka Beitrag anzeigen
    Was können wir denn von Geräten erwarten, die intelligenter sind als jeder Mensch? Was können wir damit eigentlich sinnvolles tun?
    Ich glaube nicht, dass wir etwas erwarten können denn letzten Endes interessieren uns weniger intelligente Spezies auch nicht in Bezug auf eine Zusammenarbeit. Wo es anfangs noch einer Differenz zwischen Menschenaffen und uns gleichkommt wird diese Kluft schnell wegen einer Selbstverbesserung (Fortschritt ermöglicht Fortschritt) eher wie Wurm und Mensch. Und selbst das trifft es nicht denke ich. Es würde uns nur etwas bringen wenn wir integraler Bestandteil dieses werden. Die Frage ist dann: Will so eine Entität das überhaupt? Und wollen wir das?

    @VK: Die Frage ist: So als Typ 2 Zivilisation... macht es da überhaupt Sinn sich auszubreiten?

  5. #20
    L'Éléphant terrible Avatar von Gigaz
    Registriert seit
    28.11.06
    Ort
    Zuhause
    Beiträge
    13.229
    Die ganze Sache mit der Intelligenz ist viel komplexer als die Herren Singularisten sich das vorstellen, meine ich.

    Zum ersten ist eine höhere Intelligenz für sich genommen kein großer Vorteil. So ein Urmensch war so intelligent wie wir heute, hatte aber keinen großen Vorteil gegenüber den Tieren. Erst wenn man auch an Wissen rankommt bringt die Intelligenz was. Und es ist viel zu aufwändig, dieses Wissen ganz alleine zu sammeln.

    Zum zweiten mal sollte man wissen dass es auf zwei Faktoren ankommt: Mehr Energiezufuhr bedeutet mehr Rechenleistung. Allerdings auch mehr Aufwand bei der Kühlung. Und ein großes Gehirn arbeitet besser als ein kleines Gehirn. Beim großen Gehirn gibt es aber einen Grenznutzen. Denn die Kommunikationszeit steigt dadurch an und irgendwann bringt eine zusätzliche Berechnungseinheit am Rand keine Beschleunigung mehr.

    Höchstwahrscheinlich wird die heutige Situation auch in Zukunft noch existieren: Bei manchen Aufgaben ist das menschliche Gehirn überlegen. Bei anderen Aufgaben ist es unterlegen. Brauche ich einen Computer der im Straßenverkehr Entscheidungen innerhalb von einer Millisekunde trifft? Oder einen, der nach einer Stunde rechnen das globale Wetter für nächste Woche bestimmt?


    Wenn man eine künstliche Intelligenz erschaffen möchte die alle Menschen abmurkst, dann sollte man eine Maschine mit menschlicher Intelligenz und menschlichen Fähigkeiten erschaffen, die am Fließband und mit voll funktionsfähiger Software hergestellt wird und sich vermehren will. Irgendwelche Superintelligenz ist überhaupt nicht notwendig und womöglich nur bedingt nützlich.

  6. #21
    Registrierter Benutzer
    Registriert seit
    29.06.08
    Beiträge
    1.276
    .
    Geändert von Wild Haggis (15. März 2022 um 19:05 Uhr)

  7. #22
    Blue Heeler Genießer Avatar von Baldri
    Registriert seit
    15.11.08
    Ort
    Brisbane im Traum
    Beiträge
    30.450
    Zitat Zitat von Gigaz Beitrag anzeigen
    Zum ersten ist eine höhere Intelligenz für sich genommen kein großer Vorteil. So ein Urmensch war so intelligent wie wir heute, hatte aber keinen großen Vorteil gegenüber den Tieren. Erst wenn man auch an Wissen rankommt bringt die Intelligenz was. Und es ist viel zu aufwändig, dieses Wissen ganz alleine zu sammeln.
    Nun so eine KI hätte doch aber den Vorteil auf Wikipedia zugreifen zu können, um es mal profan zu äußern. Wir haben heute den Vorteil auf bereits bestehendes Wissen zuzugreifen und es zu verfeinern. Die KI würde ebensowenig bei Null anfangen, oder?

    Zum zweiten mal sollte man wissen dass es auf zwei Faktoren ankommt: Mehr Energiezufuhr bedeutet mehr Rechenleistung. Allerdings auch mehr Aufwand bei der Kühlung. Und ein großes Gehirn arbeitet besser als ein kleines Gehirn. Beim großen Gehirn gibt es aber einen Grenznutzen. Denn die Kommunikationszeit steigt dadurch an und irgendwann bringt eine zusätzliche Berechnungseinheit am Rand keine Beschleunigung mehr.
    Ja, aber muss man sich wirklich Sorgen um eine Kühleffizienz machen? Dass länger zurückzulegende Wege (so verstehe ich es) ineffizienter bei wachsender Größe sind leuchtet mir ein. Dann wiederum, alles wird kleiner. Ist eine Verkürzung solcher (mechanischen) Wege irgendwann beendet? Momentan deutet es ja eher auf einen gegenteiligen Trend hin.

    Höchstwahrscheinlich wird die heutige Situation auch in Zukunft noch existieren: Bei manchen Aufgaben ist das menschliche Gehirn überlegen. Bei anderen Aufgaben ist es unterlegen. Brauche ich einen Computer der im Straßenverkehr Entscheidungen innerhalb von einer Millisekunde trifft? Oder einen, der nach einer Stunde rechnen das globale Wetter für nächste Woche bestimmt?
    Ich weiß nicht. Im von Phex verlinkten Artikel geht es auch darum, dass man das Gehirn irgendeines kleinen Wurmes erfolgreich simuliert hat. Dass dies auch in größerem Maßstab irgendwann möglich ist halte ich wiederum für wahrscheinlich. Und wenn man dann so ein Teil hat kann man es noch verbessern. Je nachdem welche Aufgabe so ein Gehirn dann hat kann man zum Beispiel auch Teile weglassen die für Motorik zuständig sind.


    Wenn man eine künstliche Intelligenz erschaffen möchte die alle Menschen abmurkst, dann sollte man eine Maschine mit menschlicher Intelligenz und menschlichen Fähigkeiten erschaffen, ...
    Es geht doch nicht darum Menschen abzumurksen, zumindest mir nicht.


    Zitat Zitat von krikkit Beitrag anzeigen
    Jap, man sollte aufpassen eine KI nicht zu vermenschlichen, da kann nur Scheiß dabei rauskommen. ...
    Der Unterschied wie er sich mir darstellt wäre eher der einer Amöbe zu einer Ameise - also gewaltig. Da wäre ohnehin nix mehr menschlich.
    Geändert von Baldri (08. September 2016 um 19:48 Uhr)

  8. #23
    Beyond Mars Avatar von [VK]
    Registriert seit
    05.02.08
    Beiträge
    59.500
    Zitat Zitat von krikkit Beitrag anzeigen
    Das ist super, und welche Implikationen das hat.
    Das ein reines Optimieren auf Fitnessfunktionen manchmal ungeplante Ergebnisse hat.

  9. #24
    Puhuhu Avatar von Slaan
    Registriert seit
    29.09.10
    Ort
    Hànbǎo
    Beiträge
    15.142
    Zitat Zitat von Gigaz Beitrag anzeigen
    Die ganze Sache mit der Intelligenz ist viel komplexer als die Herren Singularisten sich das vorstellen, meine ich.

    Zum ersten ist eine höhere Intelligenz für sich genommen kein großer Vorteil. So ein Urmensch war so intelligent wie wir heute, hatte aber keinen großen Vorteil gegenüber den Tieren. Erst wenn man auch an Wissen rankommt bringt die Intelligenz was. Und es ist viel zu aufwändig, dieses Wissen ganz alleine zu sammeln.
    An das Wissen heute ran zu kommen ist doch easy peasy, siehe Watson von IBM.

    Zum zweiten mal sollte man wissen dass es auf zwei Faktoren ankommt: Mehr Energiezufuhr bedeutet mehr Rechenleistung. Allerdings auch mehr Aufwand bei der Kühlung. Und ein großes Gehirn arbeitet besser als ein kleines Gehirn. Beim großen Gehirn gibt es aber einen Grenznutzen. Denn die Kommunikationszeit steigt dadurch an und irgendwann bringt eine zusätzliche Berechnungseinheit am Rand keine Beschleunigung mehr.
    Das ist korrekt für eine einzelne Einheit, aber eine entsprechende Maschine muss ja nicht auf einem physischem Rechner laufen sondern kann verteilt laufen. Ja die Kommunikationszeiten wächst mit der Distanz, aber wenn Rechenzeit der limitierende Faktor einer Operation ist kann man dennoch eine Aufgabe schneller bearbeiten wenn man sie verteilt berechnet

    Höchstwahrscheinlich wird die heutige Situation auch in Zukunft noch existieren: Bei manchen Aufgaben ist das menschliche Gehirn überlegen. Bei anderen Aufgaben ist es unterlegen. Brauche ich einen Computer der im Straßenverkehr Entscheidungen innerhalb von einer Millisekunde trifft? Oder einen, der nach einer Stunde rechnen das globale Wetter für nächste Woche bestimmt?
    Ja und ja? Es gibt viele menschliche Aspekte die wir kaum verstehen und daher auch kaum simulieren können, Kreativität wär da so ein Punkt. Wobei hier auch die Frage ist: Was ist Kreativität überhaupt? Neue Musik können auch Computer allein machen mit Lernalgorithmen/Neuralen Netzen, die resultate sind dort eben durch die Algorithmen bestimmt... aber ist das beim Menschen so anders? Sind ganz interessante Fragen ob der Mensch irgendwas inhärentes hat was man nicht in Software stecken/simulieren könnte

    Wenn man eine künstliche Intelligenz erschaffen möchte die alle Menschen abmurkst, dann sollte man eine Maschine mit menschlicher Intelligenz und menschlichen Fähigkeiten erschaffen, die am Fließband und mit voll funktionsfähiger Software hergestellt wird und sich vermehren will. Irgendwelche Superintelligenz ist überhaupt nicht notwendig und womöglich nur bedingt nützlich.
    Die Gefahr ist an der Singularität ist doch, dass man eine erst primitive AI hat die sich selbst immer weiter entwickelt und dann "plötzlich" eine Intelligenz auf Menschenebene wird. Es gibt auch andere technologische Distopieoptionen (Grey Goo wär auch so was, ganz ähnlich deinem Repliaktoren ), ganz spannend

    ----------------------------------

    Kleine Story zu lernenden Maschinen etc:

    Ich hab selbst vor nem halben Jahr einen selbst lernenden Bot für eine AI Challenge geschrieben mit nem kleinen Team an meiner Uni, das Ziel war es bei diesem Spiel mitzumachen: http://vindinium.org/

    Wir haben dabei mit reinforcement learning gearbeitet, genauer Q-learning und auch dem sarsa-lamda-Algorithmus... und es gab schon einige lustige Szenarien. Unser Bot, genannt Bender weil warum nicht, hatte aufgrund eines Implementationsfehlers angefangen ständig an die Bar zu gehen und zu saufen. Einmal an der Bar hat er nicht mehr aufgehört... und das war nachdem wir ihn Bender getauft hatten, hatte also super gepasst. Der Grund war, dass wir ihm "Belohnungen" geben wenn er an ne Bar mit wenig Leben geht und dadurch HP erhält... geht er mit vielen HP an die Bar sollte er eine "Bestrafung" erhalten da ein Barbesuch Geld kostet. Nun war die Implementation blöderweise so, dass er bei exakt 100 hp dennoch eine Belohnung erhalten hat (CURRENT_HP < 100... statt <= , war schlimmer weise auch noch mein Fehler), wodurch er mit vollen Leben einfach an der Bar sitzen geblieben ist .
    War auf jedenfall sehr faszinierend zu sehen wie der Bot langsam aber sicher gelernt hat, erst ist er komplett zufällig rumgelaufen und je länger wir ihn spielen lassen haben desto besser wurde er, ist dann direkt zu den Minen gelaufen, hat ganz am Ende auch low HP Gegner gejagd um ihre Minen zu übernehmen etc, war echt cool .

    Was hat das mit dem Thema hier zu tun? Nicht viel . Wir hatten natürlich komplette kontrolle über den Bot indem wir selbst bestimmt haben wie er sein Umfeld wahr nimmt und für welche Aktionen er eine Belohnung/Bestrafung erhält. Wir haben aber auch mit dem Gedanken am Ende gespielt ob es nicht möglich wäre auch diese Aspekte mit lernende Algorithmen zu implementieren statt es ihm vorzugeben aber das ist dann schnell richtig komplex geworden.

    Interessant sind auch andere Themen wie evolutionäre Algorithmen indem ähnlich der natürlichen Evolution versucht wird nicht gute Alternativen zu löschen und nur die, die gut zum Ziel hinarbeiten, zu behalten und weiter zu mutieren, auch ein spannendes Thema .

    Und natürlich die neuralen Netze, mit denen hab ich mich bisher aber noch wenig beschäftigt, wär eigentlich auch mal was

    :winK:
    |學而不思則罔,思而不學則殆。 ~ 孔子|
    | Lernen ohne zu denken ist sinnlos, denken ohne zu lernen gefährlich. ~ Kong Zi |

    | During times of universal deceit, telling the truth becomes a revolutionary act ~ George Orwell |

    SdM Dez16 - XCOM2 Make Humanity Great again

  10. #25
    Banned
    Registriert seit
    30.09.14
    Ort
    Hölle des Südens
    Beiträge
    879
    Zitat Zitat von krikkit Beitrag anzeigen
    Jap, man sollte aufpassen eine KI nicht zu vermenschlichen, da kann nur Scheiß dabei rauskommen...
    Ist nicht so schlimm, die werden dann einfach faul oder versumpfen abends bei einem Bier auf dem Sofa vor der Glotze.

  11. #26
    L'Éléphant terrible Avatar von Gigaz
    Registriert seit
    28.11.06
    Ort
    Zuhause
    Beiträge
    13.229
    Zitat Zitat von Slaan Beitrag anzeigen
    An das Wissen heute ran zu kommen ist doch easy peasy, siehe Watson von IBM.
    Zitat Zitat von Baldri Beitrag anzeigen
    Nun so eine KI hätte doch aber den Vorteil auf Wikipedia zugreifen zu können, um es mal profan zu äußern. Wir haben heute den Vorteil auf bereits bestehendes Wissen zuzugreifen und es zu verfeinern. Die KI würde ebensowenig bei Null anfangen, oder?
    Ja schon, aber für Überlegenheit muss man mehr wissen als die Konkurrenz. Und das ist etwas qualitativ anderes als übermenschliche Intelligenz.

  12. #27
    Blue Heeler Genießer Avatar von Baldri
    Registriert seit
    15.11.08
    Ort
    Brisbane im Traum
    Beiträge
    30.450
    Also, aber hmm. Zwei Entitäten haben einen exakt gleichen Wissensfundus. Eine davon kann mehr Rechenoperationen in einer gewissen Zeitspanne ausführen. Welche forscht besser? Weißte wie ich meine?

  13. #28
    Beyond Mars Avatar von [VK]
    Registriert seit
    05.02.08
    Beiträge
    59.500
    Zitat Zitat von Baldri Beitrag anzeigen
    Also, aber hmm. Zwei Entitäten haben einen exakt gleichen Wissensfundus. Eine davon kann mehr Rechenoperationen in einer gewissen Zeitspanne ausführen. Welche forscht besser? Weißte wie ich meine?
    Das Problem ist das Forschen nicht "nur" Rechenoperationen sind. Kreativität und das Finden von passenden Voraussetzungen sind auch wichtig.

  14. #29
    Puhuhu Avatar von Slaan
    Registriert seit
    29.09.10
    Ort
    Hànbǎo
    Beiträge
    15.142
    Zitat Zitat von Gigaz Beitrag anzeigen
    Ja schon, aber für Überlegenheit muss man mehr wissen als die Konkurrenz. Und das ist etwas qualitativ anderes als übermenschliche Intelligenz.
    Es ging doch erstmal drum das ihr Startpunkt praktisch die gesamte Menschliche Wissensbasis beinhaltet, wenn die Maschine/Maschinenverband dann entsprechend selbstlernend ist kommt da zusätzliches Wissen dazu welches wir uns noch nicht angeignet haben.... ich versteh deinen Punkt nicht so ganz
    |學而不思則罔,思而不學則殆。 ~ 孔子|
    | Lernen ohne zu denken ist sinnlos, denken ohne zu lernen gefährlich. ~ Kong Zi |

    | During times of universal deceit, telling the truth becomes a revolutionary act ~ George Orwell |

    SdM Dez16 - XCOM2 Make Humanity Great again

  15. #30
    L'Éléphant terrible Avatar von Gigaz
    Registriert seit
    28.11.06
    Ort
    Zuhause
    Beiträge
    13.229
    Das Sammeln von neuem Wissen in Form von Forschung ist aufwändig. Man muss Daten sammeln, sie auswerten und dann Hypothesen sortieren. Wenn man dann noch erfinden will braucht es Tests, Prototypen usw.
    Ich habe keinen Zweifel daran dass man mit einer superintelligenten KI schneller forschen könnte. Aber wahrscheinlich wäre es immer noch so langsam dass ein menschlicher Experte diese Forschung auch problemlos nachvollziehen kann.

Seite 2 von 12 ErsteErste 123456 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •