23

Hardware- und Nachrichten-Links des 23. Juni 2020

Von Twitterer CyberCatPunk kommen neue (angebliche) Spezifikationen zur GeForce RTX 3080 Ti herein – welche allerdings weithin angezweifelt werden. Auf Twitter gibt es eine direkte Erwiderung seitens Karmaa und auch im 3DCenter-Forum gibt man sich reichlich skeptisch. Dabei bezieht man sich zuerst auf einige Detail-Fehler in diesen Angaben: Die Taktrate passt nicht zur Rechenleistung, es wird nur "GDDR6" anstatt "GDDR6X" erwähnt, zudem passt der Chip-Codename "GA102-400" gemäß dem bisherigen Gerüchtestand nur schwerlich zu genannter Speichermenge, Speichertakt & TDP. Dabei wird allerdings womöglich sogar der hauptsächliche Punkt ignoriert, welcher an diesen Hardware-Angaben "stört": Denn die hierbei skizzierte GeForce RTX 3080 Ti würde dem Vollausbau des GA102-Chips entsprechen – womit einer neuen Titan-Karte dann nur noch eine höhere Speichermenge als Unterscheidungsmerkmal bleiben würde, abgesehen vielleicht von kleineren Taktraten-Differenzen. Und dies erscheint dann doch als zu wenig, um eine Titan-Karte ins rechte Licht zu rücken.

GA102-400-A1
RTX 3080 Ti
GA102
5376 CUDA cores
7nm
Boost Core frequency ~ 2,200MHz
Single Precision (FP32) floating point 21T
12GB @ 18Gbps Samsung GDDR6
Total Bandwith 863GB/s
TDP 320W

Quelle:  CyberCatPunk @ Twitter am 23. Juni 2020

Zudem würden aufgrund des beachtbaren Bedarfs an GeForce RTX 3080 Ti Karten auch entsprechend viele perfekte GA102-Dies aus der Chipfertigung benötigt – im Gegensatz zur aktuellen GeForce RTX 2080 Ti, welche um 4 Shader-Cluster sowie ein 32-Bit-Teilinterface gegenüber dem Vollausbau des TU102-Chips deaktiviert antritt. Sofern nVidia die Ampere-Titan nicht ganz streicht oder unerwarteterweise auf dem GA100-Chip basierend herausbringt (dann aber bestenfalls nur mit emulierter RayTracing-Fähigkeit), wäre zwischen Ampere-Titan und GeForce RTX 3080 Ti irgendein Hardware-Unterschied (außerhalb der Speichermenge) zu erwarten – zum einen zur besseren Produkt-Abgrenzung, zum anderen zugunsten einer besseren Ausbeute bei der Chipfertigung. Dies macht eine GeForce RTX 3080 Ti im Vollausbau des GA102-Chips arg unwahrscheinlich – vielleicht sogar aus Sicht der Chipfertigung unmöglich, dann bei diesen großen Chips (der GA102 wurde mit ca. 627mm² berichtet) geht es nur über den breiten Einsatz von Salvage-Lösungen. Bei der Turing-Generation wurde von den beiden größten Chips TU102 & TU104 mit dem initialen Portfolio jeweils keinerlei Vollausbau angesetzt – jener kam beim TU104-Chip erst mit dem "SUPER"-Refresh und beim TU102-Chip alleinig mit der Titan RTX.

Von Twitterer Kopite7kimi (dessen derzeit immer noch nicht widerlegte Angaben zu den verschiedene Ampere-Chips immerhin auf den Mai 2019 (!) zurückgehen) kommt eine neue Meldung zu den verschiedenen Varianten des GA102-Chips. Genannt werden hierbei nur Chip-Varianten, keine Grafikkarten-Namen oder Hardware-Daten – davon abgesehen wird im Nachtrag der GA102-Chip nochmals als Samsung-Produkt bekräftigt. Abweichend zum bisherigen Gerüchtestand sollen es nun aber sogar vier GA102-Varianten sein – wenngleich hierzu selbst bei Kopite7kimi nur unvollständige Angaben vorliegen, das ganze also bei weitem nicht fest ist. Dabei spricht einiges gegen diese gleich vier Varianten: Schon jetzt sind in den kolportierten Hardware-Unterschied (zwischen 68 und 84 Shader-Clustern, zwischen 320 und 384 Bit Speicherinterface) drei Grafikkarten-Varianten nur eher schwer reinzupressen – dies klappt eigentlich nur, wenn eine davon eine Titan ist und somit nur eine geringe Performance-Differenz zur nachfolgenden GeForce-Lösung benötigt. Gleich vier Grafikkarten passen da einfach nicht herein – es sei denn, man speckt den GA102-Chip in der kleinsten Variante nochmals deutlich ab.

SKU 0(?)   GA102-400
SKU 10     GA102-300
SKU 30     GA102-200
SKU 20     I DON'T KNOW.

Quelle:  Kopite7kimi @ Twitter am 22. Juni 2020

Denkbar wäre beispielsweise, dass man damit das Hardware-Level des zuerst geplanten, aber dann augenscheinlich doch nicht realisierten GA103-Chips abbildet – sprich 60 Shader-Cluster an einem 320 Bit Speicherinterface (oder auch einem noch etwas kleineren Speicherinterface). Gegenüber dem nachfolgenden GA104-Chip mit maximal 48 Shader-Cluster an einem 48 Shader-Cluster an einem 256 Bit Speicherinterface ergäbe dies einen durchaus ausreichenden Hardware-Unterschied, zumindest für eine Grafikkarten-Variante. Allerdings würde damit in jedem Fall das bisher bekannte Schema der drei GA102-Grafikkarten mit teilweise schon genannten Detail-Codenamen über Bord geworfen, sprich nVidia würde sich von seinen bisherigen Plänen trennen. Möglich ist dies sicherlich, derzeit steht man eher noch vor der Massenfertigung und kann aus vorhandenen Teilprodukten wie Chip, Platine und Kühler noch recht frei kombinieren. Dennoch muß diese Phase demnächst abgeschlossen werden, denn grundsätzlich anders gedachte Grafikkarten benötigen einen entsprechenden Vorlauf zur Verifizierung und für die Komponenten-Produktion. So oder so sind diesem Gerücht nur gewisse Chancen einzuräumen, die bisher (gerüchteweiser verbreitete) Release-Strategie mit drei GA102-Karten und zwei GA104-Karten sieht durchaus solider aus.

Zur Meldung des Apple-Wechsels von Intel- auf ARM-Prozessoren wäre noch nachzutragen, das sich natürlich doch ein (kleiner) Effekt auf den x86 Prozessoren-Markt ergibt: Denn wenn Apple bisher allein bei Intel geordert hat und für ca. 7% des gesamtes PC-Marktes steht, dann verschiebt der Wegfall dieses Großkunden natürlich auch die CPU-Marktanteile zwischen AMD & Intel. Eine 25:75-Verteilung zwischen diesen beiden x86-Herstellern angenommen, würde ein 7%iger Apple-Anteil am x86-Gesamtmarkt jene Verteilung somit auf 27:73 (sprich um 2 Prozentpunkte) verändern – ohne dass AMD nur eine CPU mehr verkaufen muß. Ein wirklich deutlicher Unterschied ergibt sich hiermit allerdings auch nicht – wobei dies eventuell subjektiv ist, aus AMDs Sicht dürften 2% mehr Marktanteil sehr viel bedeutsamer wirken als aus Intels Sicht (siehe die CPU-Marktanteile im Q4/2019). Daneben wäre noch der Gedankengang zu äußern, dass Apple bei seinen CPU-Anstrengungen der Vorteil des unter eigener (totalen) Kontrolle stehenden Ökosystems sehr entgegenkommen dürfte bzw. dass hier der Grund dafür liegen könnte, wieso Apple derart fix zu AMD & Intel aufschließen kann.

Denn bei Betriebssystem, viel Anwendungs-Software und Hardware aus einer Hand ergeben sich bessere Möglichkeiten, Hardware direkt zugunsten der Software zu entwickeln (bspw. Co-Prozessoren für diverse Teil-Aufgaben) oder aber die Software sehr fein auf die vorhandene Hardware abzustimmen – weil man ja (wie bei einer Spielekonsole) keine andere Hardware mehr erwarten muß. Abseits des Wegs der Co-Prozessoren hat Apple dann auch eine Möglichkeit, welche der Windows-Welt mit ihrer zergliederten Software-Struktur weitgehend fehlt: Apple könnte Mehrperformance auch einfach durch mehr CPU-Kerne erzeugen – und dann mittels der eigenen Software sicherstellen, das jene optimal ausgenutzt werden. Am Ende müsste Apple somit Intel & AMD für schnelle Desktop-Geräte gar nicht mit höherer Kern-normierter Performance schlagen, sondern könnte notfalls auch einfach mehr Kerne verbauen – vertrauend darauf, dass die eigene Software-Landschaft die bessere Kern-Skalierung ermöglicht. An dieser Stelle liegt dann sogar noch ein letzter Rettungsanker verborgen: Apples neue Prozessoren dürften zuerst und vornehmlich in Mobile-Geräten betrachtet werden – wo Apples Stärken liegen. Apples Desktop-Geräte sind dagegen weit weniger im Blickpunkt, ergo würde es kaum auffallen, wenn man dort nicht die allerbeste Performance liefert.  (Foren-Diskussion zum Thema)