Naja die 2000er APUs waren ja schon ein Zwischending aus Zen und Zen+
Naja die 2000er APUs waren ja schon ein Zwischending aus Zen und Zen+
Technologieoffenheit bedeutet Entscheidungsschwäche
Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!
Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.
Da die Grafikeinheiten in Picasso die Alten nur mit etwas mehr Takt sind, ist das ja auch wirklich kein Wunder, dass die Performance kaum besser ist. Und größere Grafikeinheiten in APUs lohnen sich halt nicht, da macht sich AMD ja das eigene Grafikkartensegment im Bereich bis 100€ kaputt.
Nein eine größere GPU lohnt nicht da die Speicherbandbreite bereits jetzt massivst limitiert.
Geändert von Knuddelbearli (19. Juli 2019 um 23:08 Uhr)
Technologieoffenheit bedeutet Entscheidungsschwäche
Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!
Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.
Mehr Leistung nimmt man immer gerne mit. Andererseits hat sich ein APU-Käufer schon bewusst dafür entschieden, dass ihm auch eine niedrige Leistung ausreicht.
Am Ende verkauft sich so eine APU vor allem über den Preis. Und wenn der zu hoch ist, nehmen die Leute dann doch lieber deutlich mehr Leistung und kaufen eine echte Grafikkarte. Auch wenn es dann noch mal deutlich teurer wird.
Für die Zielgruppe der APUs reicht ein 2200G wahrscheinlich schon in allen Lebenslagen voll aus. Am Ende kann man damit sogar jedes PC-Spiel spielen. Und mehr als 99% aller PC-Spiele sogar in maximaler Grafikpracht bei mindestens FullHD.
Aber tatsächlich überwiegt wohl die Reichweitenangst-Mentalität auch beim APU-Kauf. Die 3400er haben sich bisher besser verkauft als die 3200er. Ja, der 3400er bringt mehr Leistung. Aber wenn das eine Spiel mit der einen CPU 24fps liefert und mit der anderen 29fps, schalte ich doch einfach die Detailstufe runter und dann hat die eine 64fps und die andere 78. Auch egal.
Verstand op nul, frituur op 180.
Mich würde es nicht überraschen, wenn AMD dies tatsächlich macht. Das würde dann auch halbwegs zu der Naviversion mit 4 GB passen. Im Juni 2014 hat AMD das Ziel ausgeben, bis 2020 die Energieffizienz seiner APUs um den Faktor 25 zu steigern. Die fehlende Speicherbandbreite steht dem bisher im Weg. HBM2 macht es technisch möglich, alle leistungsrelevanten Komponenten in eine APU aus mehreren Chiplets zu quetschen. Zumindest für eine kleine Version von Navi wäre das letztlich preiswerter als eine dezidierte Grafikkarte.
https://www.planet3dnow.de/cms/46250...rmengruendung/
https://www.planet3dnow.de/cms/wp-co...Final_High.jpg
https://www.computerbase.de/2019-07/...0g-3400g-test/
Auch dieser Test bestätigt die Erwartungen an Picasso. Erwähnenswert ist, dass der Stromverbrauch im Leerlauf durch Verzicht auf eine dezidierte Grafikkarte um fast 20 Watt gesenkt werden kann. Dazu kommt noch, dass Mainboards mit B450 viel weniger Strom verbrauchen, als solche mit X570. Ryzen 5 3400 G im Idle saugt 24 Watt, für Ryzen 3600 @ X570 sind es 55 Watt. Für sparsame Systeme sind die APUs also klar im Vorteil.
Im vierten Quartal kommen die neuen Einstiegschipsätze A520 und B550. Ryzen 3 3200G @ A520, Ryzen 5 3600 @ B550 und Ryzen 9 3900X @ X570 wären jeweils passende Kombinationen.
Für alle Ryzen 3000 gilt offenbar, dass sie bereits im Default das jeweilige Maximum an Taktrate herausholen. Manuelles Übertakten lohnt fast nie. Ausnahme sind Extremfälle wie die Kühlung mit flüssigem Stickstoff, aber das taugt nicht für den Alltag.
Matisse profitiert kaum von mehr als DDR4-3200, leidet aber etwas unter weniger als DDR4-3200. Latenzen sind offenbar wichtiger als die theoretische Bandbreite. Das praktische Optimum liegt bei DDR4-3200 mit niedrigen Latenzen. Je stärker ein Spiel durch die GPU limitiert ist, desto weniger fällt die Qualität des Arbeitspeichers ins Gewicht.
https://www.3dcenter.org/news/hardwa...2526-juli-2019
den test kann man nicht ernst nehmend er eine nimtm avg FPS der andere avg fps und minimum ( also die einie niedrigste framerate )
Computerbase ist zum Glück schon am testen, am Ende dürfte der Speicher OC reichen um mit dem 3700X den 9900 einzuholen und ist immer noch weit günstiger
Technologieoffenheit bedeutet Entscheidungsschwäche
Glaubhafte Politik setzt voraus, dass man erstmal vor der eigenen Haustür kehrt!
Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über andere Leute.
Da meinetwegen auf cb im Forum viele schon auf dem 2700X eine Configuration mit 3466 CL14 und strammen Settings laufen hatten, kann 3200 mit CL14 und Standardsetting nicht das Ziel sein.
Ich habe mir die Tests nicht genau angeschaut, aber...
Techpowerup:
DDR4/3200 Teiler 1:1, Timings 14-14-14-34-1T (CAS-Latenz 8,75ns) 100% 100% 100%
DDR4/3600 Teiler 1:1, Timings 17-19-19-39-2T (CAS-Latenz 9,44ns)+0,9%-0,2%+0,3%
sieht bei eine deutlich schlechteren CAS-Latenz die 3600 im Vorteil.
Lab501
DDR4/3200 Teiler 1:1, Timings 14-14-14-36 (CAS-Latenz 8,75s) 100% 100% 100%
DDR4/3600 Teiler 1:1, Timings 16-16-16-36 (CAS-Latenz 8,89s)+0,5%+0,8%+1,6%
DDR4/3733 Teiler 1:1, Timings 16-16-16-3 (CAS-Latenz 8,57s) +0,3%+2,5%+3,2%
Auch da gewinnen die höheren Frequenzen bei geringem Unterschied der CAS-Latenz. Und da der Teiler wie man hier geht bis 3733 mitgeht, wird man da sicher immer noch was rausholen können....aber die AGESA wird sich noch entwickeln müssen.
BTW. Ist zwar nur eine Randnotiz, aber auch schon mit dem 2700X war es anscheinend möglich 3733 CL14 zu erreichen.
Das überrascht nicht. In beiden Fällen ist der Kontroller in 12 nm gefertigt, der relevante Unterschied scheint lediglich im Multiplikator zu liegen, der (je nach Einstellung) ab etwa DDR4-3733 eingreift. Das ermöglicht dann auch höher getakteten Speicher. Aber durch die Änderung lohnt dies dann halt gar nicht. Diese Änderung zugunsten der Kompatibilität ist zwar sinnvoll, aber letztlich auch ein Witz.
Solange der Multiplikator für Speicher, Speicherkontroller und IF bei 1 liegt, bringen Erhöhungen der jeweiligen Taktung natürlich Vorteile, zumindest solange die absoluten Latenzen nicht steigen. Allerdings sind die Vorteile gegenüber DDR4-3200 eher klein.
Die 3733-CL14 sind bei den alten Boards eine krasse Ausnahme. Gibt viele die bleiben bei 3466CL14 hängen und andere gar bei 3200 und darunter, gerade wenn dann noch Dualrank und/oder Vollbestückung dazu kommen. Gibt einige die sich mit der Materie nicht so intensiv auseinandersetzen, die sogar bei 3000 und darunter hängen bleiben.
Bei dem Fall oben ist die DRAM Voltage auf 1,5V gesetzt, das geht bei der neuen Plattform vermutlich mit deutlich weniger Saft. Und tatsächlich soll häufig zwischen 3200 und 3733 einfach des XMP-Profil laufen, das ist auf der alten Plattform in diesen Bereichen eher die Ausnahme.
Hab jetzt einen Intel Xeon E3-1231 v3 ersteigert. Den werde ich gegen meinen i5-4460 austauschen. Hoffentlich geht dann die Leistung in Kingdom Come spürbar nach oben.
#KriegIstFrieden
#FreiheitIstSklaverei
#UnwissenheitIstStärke
Wieso sollte es? Etwas mehr Takt+HT sind keine Welten. Aber zumindest liegst du nun auf dem Niveau "Empfohlene Hardwarevoraussetzungen des Herstellers". Das kann es ja durchaus bringen.
Warum so pessimistisch? 4C/8T ist schon ein Unterschied gegenüber 4C/4T, sofern die Software mitspielt. Ein Vermögen kostet der Xeon auch nicht - knapp 70€. Den i5 kann ich dann auch noch verkaufen.
#KriegIstFrieden
#FreiheitIstSklaverei
#UnwissenheitIstStärke