GTX 1100: Was wir über Nvidia Turing wissen

(Bild: Mockup/via wccftech)

Es geht turbulent zu bei den Grafikherstellern. Während Nvidia die absolute Topposition belegt, ist AMD weiterhin eher ein Underdog. Mit dem Release der Turing-Generation könnte Nvidia den Vorsprung noch deutlich vergrößern. Zur neuen GTX 1100-Serie leaken immer mehr Details. Wir haben alles zusammengetragen.

Nvidia – ungeschlagen an der Spitze

Nvidia ist derzeit der absolute Primus im Grafikkartenmarkt. Während AMD weiterhin nicht die Leistung des grünen Teams erreicht, kann sich Nvidia eigentlich entspannt zurücklehnen. Die GTX 1000-Serie ist erfolgreicher denn je. Die Grafikkarten verkaufen sich bestens, trotz der Knappheit durchs Mining. Auch die Preise sinken wieder leicht. Trotz allem steht Nvidia erneut in der Kritik. Das Nvidia GeForce Parnterprogramm versuche gezielt, den Konkurrenten AMD aus dem Markt zu drängen. An diesen Vorwürfen scheint einiges dran zu sein – dabei bräuchte Nvidia solche Markttechniken eigentlich nicht. Die Produkte überzeugen, wenn es auch Kritikpunkte gibt.

Allerdings stellten sich bereits nach dem Launch von RX Vega letztes Jahr viele die Frage: muss Nvidia überhaupt reagieren? Deshalb haben viele darauf spekuliert, dass sich der Hersteller auch mit der neuen Generation etwas mehr Zeit lassen könnte, als gedacht. Nvidia hat keinen Druck seitens der Konkurrenz. Trotzdem werden noch dieses Jahr neue Grafikkarten mit dem Namen GTX 1100, Codenname Turing, erscheinen.

Turing statt Volta und Ampere – welcher Codename ist es denn jetzt?!


Bis zum Launch der Titan V mit GV100-Grafikchip gingen die meisten davon aus, dass die neue Generation unter dem Codenamen Volta erscheinen werde. Beim Launch der Architektur bestätigte Nvidia jedoch, dass es sich um eine reine Enterprise-Architektur handle, welche nicht ins Consumersegment einziehen soll. Das ist für Nvidia eine Neuheit, da auch die Profi-Grafikkarten, beispielsweise der Quadro-Serie, immer auf der gleichen GPU-Architektur wie die Gaming-Pendants aufbauten. Durch den starken Fokus auf AI und Deep Learning hat Nvidia jetzt jedoch diesen Schritt gewagt – der Name Volta war somit aus dem Rennen.

Der nächste potenzielle Name war Ampere. Einige geleakte Dokumente deuteten auf Grafikchips mit diesem Namen hin. Die Nachrichtenagentur Reuters gab dem ganzen jedoch relativ schnell eine Wendung. In einem Pressestatement der Agentur tauchte plötzlich der Name Turing auf. Da der Namenspate Alan Turing eigentlich ein KI-Experte war, wäre hinter dem Namen eher eine GPU für Deep Learning zu vermuten. Manche spekulierten zudem, dass es sich bei Turing um eine eigene Mining-Grafikkartenarchitektur handeln könnte. Mittlerweile ist relativ sicher, dass Nvidia tatsächlich den Schritt wagt und die Gaming-GPUs vollständig von den Anwendungs-GPUs trennt. Turing wäre somit tatsächlich der Name für die Gaming-Grafikkarten, während Ampere bereits der Nachfolger für Volta ist.

Mehr Kerne, kleinere Struktur, besserer, schnellerer und mehr Speicher

Turing soll im Vergleich zum direkten Vorgänger Pascal so einige Neuerungen bringen. Neben den typischen Neuerungen wie mehr parallelisierten CUDA-Kernen stehen noch andere Dinge auf dem Plan. Die wichtigste Neuerung ist wohl ein kleinerer Fertigungsprozess. Nvidia setzt bei Turing angeblich auf 12nm FinFET. Durch die schmalere Produktion haben mehr Transistoren auf dem Die platz. Steigen soll allerdings auch die Größe der Grafikchips selbst. So soll der Chip einer GTX 1180 auf ungefähr 400 mm² anwachsen, was deutlich größer als der Chip der GTX 1080 mit 314 mm² wäre. Letzten Gerüchten zufolge soll die GTX 1180 ganze 3584 CUDA-Kerne, 224 Textureinheiten und weiterhin 64 Rastereinheiten. Dieser potenzielle GT104-Chip läge damit technisch auf dem Niveau der 1080 ti.

Eine weitere wichtige Neuerung ist der Umstieg von GDDR5 auf GDDR6. Die Spezifikationen der Speicherchips sind fertig, die Produktion soll ab Anfang Juni laufen. Durch die Verwendung von 2 GByte-Speicherchips, welche beispielsweise SK Hynix produziert, gibt es auch erstmals die Möglichkeit einer Grafikkarte mit 16 GByte GDDR6 bei einem 256 bit-Interface. Diese Speichergröße wäre beispielsweise bei einer GTX 1180 durchaus denkbar. Die ganze GTX 1100-Serie könnte somit mit deutlich mehr Speicher ausgestattet sein. Mit dem Umstieg auf GDDR6 steigt auch die Geschwindigkeit des Speichers deutlich. Mit 16 Gbps ist der Speicher um 60 Prozent schneller als GDDR5X. Die Bandbreite bei diesem Interface steigt damit auf ganze 512 GB/s an.

Teure Neuerungen, Launch Ende Juli

Die Leistung der neuen Grafikgeneration soll erneut deutlich über dem Niveau der Vorgänger liegen. Durch den besseren Fertigungsprozess, den neuen Speicher und die drastische Erhöhung der Kerne könnte die GTX 1180 bereits an der 13 TFLOP-Marke bei der FP32-Performance kratzen. Durch die Optimierungen läge er vor der GTX Titan Xp und der 1080 ti. Die ganze Grafikkarte soll durch die neue Strukturbreite trotzdem nicht mehr Strom verbrauchen. Die 180 Watt TDP der 1080 könnten somit problemlos gehalten werden. In Anbetracht der Leistungssteigerung der Vorgängergeneration dürfte auch die GTX 1170 gleichauf mit der Titan Xp liegen, wenn nicht leicht darüber.

In Anbetracht dieses Leistungszuwachses und der fehlenden Konkurrenz seitens AMD könnte die GTX 1100-Generation teuer denn je werden. Einige Industriequellen sprechen davon, dass die UVP nicht nur für die Founders Edition sondern auch für die darauf folgenden Partnerkarten der GTX 1180 bei 699 US-Dollar liegen dürfte. Die Preise für eine GTX 1170 würden damit vermutlich auf mindestens 499 US-Dollar dauerhaft steigen.

Auch einen vagen Termin für den Launch gibt es bereits. Da Nvidia auf die Produktion des GDDR6-Speichers angewiesen ist, dürften die Grafikkarten frühestens im Juli erscheinen. SK Hynix produziert ab Ende Juni, Anfang Juli, während der größte Konkurrent Samsung bereits früher anfangen könnte. Logisch wären somit eine Vorstellung Ende Juli mit einem Marktstart Anfang August. Der Zeitplan würde auch in Nvidias üblichen Update-Plan fallen.


Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*