https://wccftech.com/rapidus-2nm-2hp...istor-density/The information shared reveals that Rapidus 2HP will feature a logic density of 237.31 MTr/mm², being on par with TSMC's N2, which is claimed to be at 236.17 MTr/mm² currently.
https://wccftech.com/rapidus-2nm-2hp...istor-density/The information shared reveals that Rapidus 2HP will feature a logic density of 237.31 MTr/mm², being on par with TSMC's N2, which is claimed to be at 236.17 MTr/mm² currently.
Die Computerbase äußert sich vorerst skeptisch zu Rapidus.
Auch zu beachten ist, dass andere Quellen besagen, dass TSMCs Prozesse sehr wohl besser skalieren. TechInsights analysierte im Januar dieses Jahres, dass N2 eher in Richtung 313 MTr/mm² gehen dürfte, selbst Intel 18A mit passender Metrik auf 238 MTr/mm² kommt – also fast exakt dem Wert, der nun Rapidus zugesprochen wird. Diese Werte sind unter anderem bei Wikipedia als Referenz verlinkt.https://www.computerbase.de/news/wir...c-heran.94133/Inwiefern das alles bei hohem Volumen und hoher Auslastung mit hochkomplexen Produkten funktioniert, bleibt abzuwarten. TSMC & Co. haben ihre Systeme seit Jahren in diese Richtung optimiert, Rapidus versucht hier nun etwas anderes. Ob das gelingt und wie effektiv es ist, soll sich ab 2027 zeigen, dann sollen erste Serienprodukte gefertigt werden. Ein Kunde ist bisher aber nicht bekannt.
Abwarten, Tee trinken, und dann mal schauen, wer den Prozess nutzt oder auch nicht.
Zwischen "verfügbar" und die ersten Produkte mit der Fertigung werden ausgeliefert vergeht gerne viel Zeit.
Und bei der AI Goldgrube werden vermutlich schon viele TSMC Ressourcen für 2nm reserviert sein und kein Risiko eingegangen werden.
Evtl. werden sich aber auch namhafte Hersteller erstmal zurückhalten, und wenn sich die neue Technologie bewiesen hat, ist sie bereits wieder veraltet.
Wettbewerb tut dem Markt sicherlich gut, würde aber einfach mal abwarten![]()
Freedom's just another word for nothing left to lose
Der Chipfertigungsprozess Intel 18A ist technisch grob konkurrenzfähig mit TSMC N3 und teils sogar mit N2, aber im Grunde zu sehr auf Intel selbst als Kunden ausgerichtet. Wenn Intel als Chipfertiger eine Zukunft haben will, muss Intel wichtige externe Kunden für die Chipfertigung finden. Der nächste Fertigungsprozess Intel 14A wird ein "make it or break it"-Moment.
https://www.computerbase.de/news/pro...en-cpus.94460/Laut Analysten hat Intel zusätzliche Belichter bei ASML bestellt. Diese sollen ab 2027 zulaufen und entsprechend Fabriken ausrüsten. Damit dürften bestehende Einrichtungen respektive die letzten Ausbaustufen beispielsweise in Arizona bedacht werden, denn in Ohio wird sich vor der nächsten Dekade nichts tun. Optimisten sehen das als Indiz, dass Intel eventuell bald doch einen größeren Kunden für Intel Foundry ankündigen könnte.
https://www.computerbase.de/news/wir...revival.93645/Nach den Rückschlägen bei Intel 20A und Intel 18A steht Intel vollends mit dem Rücken zur Wand. Intel 14A ist zum Erfolg verdammt, sonst ist die modernste Halbleiterfertigung bei Intel Geschichte – das sagt jetzt erstmals auch der Konzern selbst. Dafür muss die Fertigungsstufe aber zwingend externe Kundschaft gewinnen, allein kann dies Intel nicht finanziell stemmen.
Intel hat derzeit den nach eigener Aussage besten Fertigungsprozess in der Serienproduktion.
Denn eine bessere Fertigung in Serienproduktion gibt es aktuell nicht, sagt Intel – und hat damit durchaus recht: TSMCs neuer 2-nm-Prozess ist noch nicht in Serie, bis dahin dürfte Intel 18A die beste Lösung sein.https://www.computerbase.de/artikel/...-besuch.94508/Backside Power Delivery (BSPD) heißt bei Intel PowerVia. Intels eigene Umsetzung der Technologie soll sich dabei etwas vom Original unterscheiden, nicht nur der Name sei ein anderer. Die grundlegende Technik der rückseitigen Stromversorgung von Transistoren ist wiederum keine exklusive Entwicklung, sie steht bei jeder Firma auf der Roadmap. Intel ist hier jedoch am weitesten fortgeschritten, geht nun als erster in Serienproduktion.
Bisher machen sich Strom- und Signalleitungen auf der Vorderseite eines Chips gegenseitig den Platz streitig, behindern sich mitunter sogar. Die Trennung von beiden bietet mehrere Vorteile sowohl in Richtung Skalierung als auch Effizienz: Signalleitungen haben mehr Platz, während sich auf der Rückseite die Stromzufuhr austoben kann. Ein Nachteil ist jedoch das Handling der Wafer, die in der Produktion gedreht werden müssen.
-> https://www.pcgamesn.com/amd/radiance-coreAMD just announced a new ray tracing gaming GPU core, promises big speed boost
The new Radiance Core will see future AMD Radeon graphics cards processing ray traversal with dedicated hardware, improving path tracing.
Ich bin ja immer noch kein Freund vom Raytracing-Hype.
Denn der sorgt eigentlich nur dafür, dass man stärkere Grafikkarten für sehr viel mehr Geld kaufen muss und/oder man mit Frage Generation, DLSS etc. (also mit KI) "Fake Frames" einschieben muss.
Der Typ hier trifft es für mich schon ganz gut.
Ich nutze DLSS z.B. beim Flight Simulator 2024 gerne, aber bei Shootern killt mich die höhere Latenz. Ich merke es aktuell an Battlefield 6. Ohne DLSS 3, FG etc. komme ich auf meinem Laptop nicht auf spielbare Frameraten. Aber: Die Latenz killt mich. Die Maus zieht nach. Und da der Shooter mittlerweile eher COD-Tempo hat statt ein eher gemütlicheres Battlefield zu sein ist das extrem für mich.
Und wenn ich die Technik richtig verstehe wird Frame Generation nie ohne eine (wenigstens kleine) Erhöhung der Latenz machbar sein. Also ist das für mich nicht die Zukunft.
Dazu kommt, dass alles etwas unschärfer ist, aber oftmals wie eine Speckschwarte glänzt. In hochkompetitiven Spielen kann ich die Spiegelungen etc. gar nicht bewundern. Das, was man alles in den BF6-Trailern in Zeitlupe bestaunen kann ist ja schön und gut, aber wenn ich es selbst Spiele ist das Realgeschwindigkeit und da geht das völlig unter. Scharfe Texturen, hohe und keine flimmernden Kanten. Das ist wichtig.
Aber was will man machen. Das ist eben der aktuelle Trend den man den Leuten eingeimpft hat und dort gibt es für die Hersteller das Geld im Endkundenmarkt zu verdienen.
Bzw. wie einer in den Kommentaren des Videos schreibt:
2018
- "wieviel fps hast du bro"
+ "120fps"
- "sheesh"
2025
-"wieviel Latenz hast du bro?
+ "25ms"
- "sheesh"
"Nur der HSV!" - Verstehe ich nicht, es steigt doch mindestens noch einer mit ab.
S.D.G.
My sysProfile !
"When stupidity is considered patriotism, it is unsafe to be intelligent." - Isaac Asimov
Klingt nach einem guten Geschäftsmodell.
Das liegt dann aber nicht am Upscaling, sondern an der Frame Generation. Die Zahl der echten Frames wird dadurch nämlich nicht erhöht. Durch Upscaling schon. Upscaling ist der nützliche Teil an DLSS, Frame Generation ist überwiegend unnütz.
Derzeit lässt sich ohne Raytracing und ohne Frame Generation aber mit Upscaling gut spielen.
Grob 2027 lässt sich ohne Frame Generation aber mit Raytracing und mit Upscaling gut spielen.
Da ich jetzt ein System habe das gut genug ist damit ich mit Raytracing, Upscaling und Frame Generation herum experimentieren kann habe ich das in meinem Cyberpunk 2077 Durchgang ausgiebig gemacht. Mein Fazit war das Raytracing zwar nett ist aber (zumindest für mich) optisch nicht die Performance Einbrüche rechtfertigte die ich damit hatte. Ich habe mich entschieden Cyberpunk ohne Upscaling, ohne Frame Generation und ohne Raytracing zu spielen. Also mit ~120 echten Frames, einem scharfen Bild und gefühlt ohne jegliche Latenz. Auf Ultra Einstellungen hatte ich nie das Gefühl das ich was vermisse, die Beleuchtung/Schatten waren gut, ich hatte gute Spiegelungen und vor allem keine Performance Probleme.
Die alternative wäre Raytracing + FSR, aber zu begin meines CP Durchgangs habe ich keine konstante Framerate hinbekommen und hatte Mauslag, Frame Generation hat das Mauslag viel schlimmer gemacht. Ein aktueller Test zeigt aber das ich jetzt auch stabile 120FPS mit Raytracing auf Ultra, FSR und Frame Generation hinbekomme, mit minimaler Latenz. Vielleicht wurde das mit aktuellen Treibern verbessert.Hätte ich das vor ein paar Wochen so hinbekommen hätte ich vermutlich mit RT gespielt, weil die Performance so stimmt.
Generell bin ich aber auch kein Freund von Raytracing und vor allem von Frame Generation.
Jein -> das kommt sehr auf das Spiel und das verwendete Display an.
Mit einer VR-Brille ist FG schon ziemlich nice, um stabile 120Hz bei 4k/Auge zu bekommen.
In VR sind instabile/einbrechende Frameraten absolutes Gift "Motion Sickness" incoming.
Im Flight Simulator 2024 stört die Latenz nicht.
In flotten Online-Shootern ist der Input-Lag unschön.
Imho ist echtes Raytracing der letzte, fehlende Baustein zu wirklich fotorealistischer Grafik.
Solang Spiele das optional anbieten, find' ich das ok.
Über die Zeit werden die GPUs schon ausreichend flott dafür werden.
![]()
Geändert von drdope (14. Oktober 2025 um 09:01 Uhr)
Intels erste Iteration von Intel 18A geht derzeit in die Massenproduktion. Anfang 2027 könnte die zweite Iteration Intel 18A-P von Apple genutzt werden.
https://www.computerbase.de/news/pro...duerfen.95251/Zwar hatte Intel zuletzt wiederholt davon gesprochen, dass Intel 18A zwar der beste aktuelle Prozess, aber durch seine Intel-Fokussierung noch nicht der Durchbruch im Geschäft mit externen Kunden sei („Foundry Business“), Apple hat laut Kuo aber trotzdem den kleinsten oder eine Version des kleinsten M-SoC auf Intel 18A ausgelegt.
Dafür habe Apple schon länger Zugriff auf das 18AP PDK 0.9.1GA gehabt. Da Simulationen vielversprechend ausgesehen hätten, warte der iPhone-Konzern aktuell auf das finale PDK, das im 1. Quartal 2026 freigegeben werden könnte. Erste Produkte könnten dann ab dem 2. Quartal 2027 die Fab verlassen – möglicherweise als Apple M7.
Micron will keinen RAM mehr für Consumer bauen und sich auf AI spezialisieren. Damit würde ein nicht untelevantes Unternehmen den Markt verlassen, was den Preisen sicher auch nicht so gut tun sollte.
https://www.reuters.com/business/mic...ss-2025-12-03/
Jein. Eingestellt wird wohl nur die Endkundenmarke Crucial. In Fertig-PCs wie Notebooks wird wohl auch weiterhin D-RAM von Micron zum Einsatz kommen.
https://www.3dcenter.org/news/news-des-3-dezember-2025Support und Garantieleistungen werden natürlich weiterhin geboten, auch wird Micron weiterhin im OEM-Segment aktiv bleiben, sprich die Micron-Speicherchips verschwinden mitnichten gänzlich aus Consumer-Produkten.