Seite 226 von 245 ErsteErste ... 126176216222223224225226227228229230236 ... LetzteLetzte
Ergebnis 3.376 bis 3.390 von 3673

Thema: [Hardware] Vorstellungen, Fragen, Tipps, Bemerkungen

  1. #3376
    Administrator
    Registriert seit
    20.08.04
    Beiträge
    8.965
    Die haben aber auch nicht die 3D-Leisung und Leistungsaufnahme wie das SteamDeck.
    Verstand op nul, frituur op 180.

  2. #3377
    Feldmarschall Avatar von Knuddelbearli
    Registriert seit
    15.10.11
    Beiträge
    5.350
    Och die große IGP ist jetzt nicht soviel schlechter, wenn dann nur wegen Speicherbandbreite.
    Technologieoffenheit bedeutet Entscheidungsschwäche

    Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!

    Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.

  3. #3378
    Pfeffersack Avatar von slowcar
    Registriert seit
    04.01.06
    Ort
    hh
    Beiträge
    18.212
    Die Radeon 7900 ist schneller, günstiger und heißer als die 4080 wie es aussieht.
    Solange man kein raytracing einsetzt, also ordentlicher Preis-Leistungs-Sieger

    https://arstechnica.com/gadgets/2022...-with-caveats/

    Ich warte trotzdem noch auf die 300€ Variante

  4. #3379
    Feldmarschall Avatar von Knuddelbearli
    Registriert seit
    15.10.11
    Beiträge
    5.350
    Bei CB ist sie langsamer, also eher enttäuschend...
    Zumindest bei Raytracing flotter als befürchtet, sah nach 3080 Performance aus, kommt aber eher der 3090Ti nahe.

    https://www.computerbase.de/2022-12/..._in_2560__1440
    Technologieoffenheit bedeutet Entscheidungsschwäche

    Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!

    Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.

  5. #3380
    Registrierter Benutzer
    Registriert seit
    16.12.16
    Beiträge
    3.181
    CB ist bisher der einzige Test in dem sie langsamer ist.

    Dafür haben andere Probleme mit der Leistungsaufnahme gesehen, die es bei CB nicht gibt...

  6. #3381
    schläft Avatar von Frozen
    Registriert seit
    10.10.09
    Beiträge
    18.408
    Jo, die Tests sind wohl relativ unterschiedlich ausgefallen.
    Manche Spiele seien wohl ordentlich optimiert worden und laufen top, bei anderen bestehen wohl noch schwächen.
    Je nach Spieleauswahl gibt es stark unterschiedliche Ergebnisse.

    Der Idle- und Mehrmonitorbetriebverbrauch wird noch kritisiert.
    Seien diese Werte doch mehr als doppelt so hoch als bei der Konkurrenz.

    "Light Raytracing" läuft mit den Karten wohl auch gut genug,
    bei untypischer "heavy RT" Load ist es wohl bis zu einem Faktor von fast 2.

    Das Energiestecker-Marketing ist in retroperspektive mit der schlechteren Powereffizienz etwas kindisch gewesen,
    aber nun gut.

    Ich hoffe AMD bügelt die letzten Fehler noch durch Software-Updates aus und optimiert weitere Spiele.
    Dann sollten sie bzgl. Preis Leistung und Rasterisierung mit leichtem RT Load der eindeutige Sieger sein, was ich AMD wirklich wünsche.
    Freedom's just another word for nothing left to lose

  7. #3382
    CivBot
    Registriert seit
    25.03.06
    Ort
    Göttingen
    Beiträge
    40.450
    RDNA3 scheint etwas unausgereift. Wenn Nvidia das wusste, erklärt es den Preispunkt der RTX 4080.
    Zitat Zitat von d73070d0 Beitrag anzeigen
    Ach, das darfst Du nicht so eng sehen. Aus justanick kriegt man nur eine konkrete Antwort raus, wenn man Müll erzählt und dann zurechtgewiesen wird. Wenn Du also was von ihm willst, frag' nich, sondern stell' falsche Behauptungen in den Raum - die werden dann umgehend korrigiert. ;)

  8. #3383
    schläft Avatar von Frozen
    Registriert seit
    10.10.09
    Beiträge
    18.408
    Ich finde die Conclusion von digital foundry ganz gut:
    Wenn es Mode wird, dass das nicht Spitzenmodell (RTX 4080, RX 7900XT) schlechter abschneidet bzgl. Preis Leistung als das "Luxus"-/Topmodell, dann sehe ich schwarz für die midrange GPUs.
    Freedom's just another word for nothing left to lose

  9. #3384
    Registrierter Benutzer Avatar von asdfyxcv
    Registriert seit
    26.12.10
    Beiträge
    931
    Was eine Enttäuschung.

    Rasterization nur im Bereich der 4080 (hatte mehr erwartet), zudem RT nur auf dem Stand der alten Generation von Nvidia (OK, das war erwartet ). Die XTX zu hoch, die XT viel zu hoch bepreist.
    Aber die Effizienz ist das KO Kriterium:
    >100W im idle bei 4k@144Hz, 78W bei youtube. Das ist völlig inakzeptabel. Wer kauft sowas?
    Auch in Spielen ziehen die Karten mehr als nvidia und sind auch noch lauter.

    Weckt mich in 2 Jahren wieder, wenn die nächste Generation auf den Markt kommt.

  10. #3385
    1. Mose 9,6 Avatar von gruenmuckel
    Registriert seit
    22.12.01
    Ort
    Halle NRW
    Beiträge
    3.028
    Es gibt auch nen neuen Treiber mit dem der Speicher weiter runtertaktet und die Chose weniger Energie verballert im quasi-idle.

    Und man muss mal weg, dass es Nividias Kriterien sind die man zu erfüllen und besser zu machen hat. Raytracing wegdenken, Rohleistung bevorzugen...
    "Nur der HSV!" - Verstehe ich nicht, es steigt doch mindestens noch einer mit ab.
    S.D.G.
    My sysProfile !
    "Gute Fahrer haben die Fliegenreste auf den Seitenscheiben" - Walter Röhrl
    Lattenrost ist keine Geschlechtskrankheit
    Zitat Zitat von Frederick Steiner (der jüngere) über den Kader des BVB 2007/2008 Beitrag anzeigen
    Och, wenn Du die alle klein hackst, in nen Topf wirfst und daraus ein Konzentrat machst, bekommst Du sicher ein oder zwei ordentliche Fußballspieler raus. Und rund 9 Pfadfinderinnen mit spektakulärem Bartwuchs. :D

  11. #3386
    Wolf im Krokodilpelz Avatar von Mongke Khan
    Registriert seit
    25.06.11
    Ort
    KA
    Beiträge
    19.039
    Rasterisierung
    Raytracing

  12. #3387
    Registrierter Benutzer Avatar von drdope
    Registriert seit
    27.04.13
    Beiträge
    488
    Zitat Zitat von Shakka Beitrag anzeigen
    Es ist auch schade, dass AMD die Plattform des Steamdeck nicht Standalone (z.B. fest verlötet auf mini-ITX-Brett) herausbringt.

    Auch am FullHD-Monitopr reicht das für 99,998% aller jemals erschienenen Spiele.
    Die wollen sich halt den eigenen Markt für CPUs/GPUs nicht kaputt machen.
    Wenn AMD wollen würde, könnten sie ja embedded Boards mit APUs der Leistungsklasse PS5/Xbox Series X und aufgelöteten RAM auf den Markt werfen.
    Apple macht ja im Prinzip auch genau das...


    Zitat Zitat von Knuddelbearli Beitrag anzeigen
    Och die große IGP ist jetzt nicht soviel schlechter, wenn dann nur wegen Speicherbandbreite.
    Das ist ja genau das Problem... die GPU-Performance lebt von Speicherbandbreite...

    PC:
    PC @ DDR4-3200 Dualchannel/128bit 51,2 GB/s
    PC @ DDR5-5200 Dualchannel/128bit 82.4GB/s

    Konsolen:
    PS5 APU: 16GB 448 GB/s@GDDR6
    Xbox SeriesX APU : 10 GB mit 560 GB/s, 6 GB mit 336 GB/s@GDDR6

    Apple:
    Apple M1 LPDDR4X-4266 128 bit 68.3 GB/s
    Apple M2 LPDDR5X-6400 128 bit 100 GB/s
    Apple M1 Pro LPDDR5-6400 256 bit 204.8 GB/s
    Apple M1 Max LPDDR5-6400 512 bit 409.6 GB/s
    Apple M1 Ultra LPDDR5-6400 1024 bit 819.2 GB/s

    Ganz bös'/zynisch formuliert:
    Ein aktueller DDR5-Desktop-PC mit APU hat ungefähr so viel Speicherbandbreite, wie mein MacMini/iPad M1 mit der vorletzten APU-Generation.


    @RDNA3
    Find' die GPUs schon interessant, aber der idle-Verbrauch würde mich stören, wenn der PC noch für Alltagskram neben dem reinen zocken genutzt wird.
    Das wirkt auf mich irgendwie ein bissl aus der Zeit gefallen.
    Mein 2 Jahre alter Desktop (MacMini M1) frisst im idle 7W und unter Last knapp 40W...
    Geändert von drdope (12. Dezember 2022 um 22:25 Uhr)

  13. #3388
    schläft Avatar von Frozen
    Registriert seit
    10.10.09
    Beiträge
    18.408
    Kommt immer auf das Anwendungsfeld drauf an.

    Es stimmt, dass häufig der Speicher limitiert,
    anderseits gehören viele solcher Aufgaben/Berechnungen sowieso auf einen Beschleunigerchip.
    Das wird aber häufig nur im HPC Umfeld auch gemacht, da viele Sprachen und Programmierer sich darauf nicht fokussieren.

    Mit ARM gäbe es notfalls auch CPUs mit mehr Bandbreite, z.B. die Grace CPU.
    Viele aktuelle CPUs hoffen halt auf Caching und niedrige Latenzen.

    Wenn ich mich nicht irre, aus dem Gedächtnis, liegt die Maschinenbalance, also wie viele Speichertransfers pro Rechenoperation, seit Jahren konstant bei ca. 0,02, also 50 Instruktionen pro geladener Zahl/Datum.
    Freedom's just another word for nothing left to lose

  14. #3389
    Registrierter Benutzer Avatar von drdope
    Registriert seit
    27.04.13
    Beiträge
    488
    Zitat Zitat von Frozen Beitrag anzeigen
    Kommt immer auf das Anwendungsfeld drauf an.

    Es stimmt, dass häufig der Speicher limitiert,
    anderseits gehören viele solcher Aufgaben/Berechnungen sowieso auf einen Beschleunigerchip.
    Ganz klar Jein!

    Bzw ist die Frage, je nach Anwendungsfall, wie der Beschleunigerchip angebunden ist.
    Eine dedizierte GPU ist ja auch nur ein "Beschleunigerchip" für "Grafikkram" (ich lasse den Tensor-AI-Teil mal bewußt außen vor).
    Der Nachteil einer Lösung mit dedizierten "Beschleunigerchips" für Aufgabe xy ist aber immer:
    - ich muß ggf. ständig große Datenmengen zwischen CPU-RAM/GPU-RAM hin und her bewegen.
    - ich brauch dedizierten RAM für CPU & GPU.
    - ich brauch dedizierte CPUs/GPUs
    -> Den ganzen Mist spart man sich mit einer APU/UMA.

    Ob ich mir jetzt eine PCIe GPU mit aufgelöteten 16GB RAM und gesockelte CPU/Mainboard mit 16GB gesteckten RAM kaufe oder ein embedded Board mit APU & 32GB aufgelöteten RAM macht preislich kaum einen Unterschied... es kostet lediglich ein wenig Flexibilität.

    Zitat Zitat von Frozen Beitrag anzeigen
    wird aber häufig nur im HPC Umfeld auch gemacht, da viele Sprachen und Programmierer sich darauf nicht fokussieren.
    Da macht das ganze auch noch Sinn, weil dort Perfomance/W & Packungsdichte eine Rolle spielen und sehr individuell (auf das konkrete Szenario) Applikationen entwickelt werden.
    Im Desktopbereich sehe ich den Sinn immer weniger, weil wir (imho) dort auch schon im "good enough = PS5/XBX" angekommen sind.
    Im Prinzip eine sehr linke Sichtweise -> der Trabbi reicht doch für alle...

    Auf der anderen Seite, würde ich zumindest vermuten, daß man auf einheitlichen Plattformen, viel besser optimieren kann, oder?
    Was die Demo-Szene heute an Demos via Assembler aus C64/Amiga rausholt ist der absolute Hammer.

  15. #3390
    schläft Avatar von Frozen
    Registriert seit
    10.10.09
    Beiträge
    18.408
    Damit wären wir wieder bei Grace, wo die CPU mit der GPU mit 900GB/s und sehr niedriger Latenz angebunden ist.

    Du hast da vollkommen recht, aber Intel hat mangels sinnvollem Beschleuniger und >90% Marktanteil im HPC Bereich die Entwicklung von PCIe um Jahre ausgebremst.
    Nvidia hat ja nicht freiwillig NVLink entwickelt, sondern weil sie GPUs sinnvoller anschließen wollte und Intel dies verhindern wollte, während AMD zu dieser Zeit keine Rolle im HPC Bereich gespielt hat.
    Das verschieben von Daten ist an sich kein Problem, aber dafür braucht man daher eine HPC Umgebung.
    Mit Nvidia Magnum IO kann die GPU über NV Link und Netzwerk direkt auf Daten zugreifen ohne über die CPU gehen zu müssen und das mit ordentlicher Latenz.

    Auf einem Node ist die Anbindung dabei so schnell, dass es für viele Probleme möglich ist den Speicher der GPUs als einen zu betrachten und damit auch auf 640GB Speicher zu kommen.
    Jede GPU kann dabei mit jeder anderen GPU auf dem Node mit 900Gb/s kommunizieren und mit 4000Gb/s ins Netzwerk.

    Für DirectX 12 wurde ja vor 1-2 Jahren oder so angekündigt, dass Texturen und co. jetzt auch direkt in die GPUs geladen werden können und da dann entpackt werden können.
    Ob das inzwischen sinnvoll umgesetzt worden ist, da bin ich leider überfragt.
    Freedom's just another word for nothing left to lose

Seite 226 von 245 ErsteErste ... 126176216222223224225226227228229230236 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •