News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Wenn die Gerüchte jetzt schon von einer möglichen späteren 20Gb Version sprechen, riecht das für mich schon verdammt nach einem "SUPER" Refresh mit 20GB und auch bei der 3070 könnte man auf 16Gb aufstocken und evtl auch schnelleren Ram dann verbauen wenn nötig.
Nachdem aber schon vorher feststeht, dass AMD hier bei den Top Modellen 16GB vram bringt, ist es mir schleierhaft das NV hier nicht gleich in die vollen geht. So könnte man auch die Kunden die auf 16Gb vram warten gleich ködern und AMD auch Kunden abgraben. Ob eine Graka nun 800 oder 900 € kostet macht den braten auch nicht mehr fett. Bei den kleineren Versionen mit 256 bit und 320 bit sollte ja der Stromverbrauch auch moderater ausfallen, zumal auch der Speicher etwas langsamer läuft.
 
  • Gefällt mir
Reaktionen: Aquilid, fox40phil, poly123 und eine weitere Person
fox40phil schrieb:
Der einzig wirklich krasse Titel für dieses Jahr ist ja eh nur noch Cyberpunk! Der wird wohl auf den meisten Kisten noch laufen? Hoffe ich..... aber einfach mal warten!

Den Titel will ich aber beim ersten mal mit dem max. zuckersüßen eyecandy spielen und nicht auf nem sauren medium Setting :D
 
  • Gefällt mir
Reaktionen: fox40phil
Wenn der Prozess kleiner wird, aber gleich viele Shader verbaut werden (3080 vs. 2080ti) dann wird der Chip kleiner, das Yield besser und damit die Kosten geringer. Ein kleines PCB spart auch Kosten und wenn man "wenig" VRAM verbaut wird es auch günstiger.

Der Unterschied zwischen 3080 und 3090 sind etwa 20%, außer beim VRAM. Da wird die 20GB Variante kommen sobald Big Navi erscheint.
 
  • Gefällt mir
Reaktionen: fox40phil
320W bei der RTX 3080 verstehe ich nicht. Die müsste folglich so viel Rohleistung haben, dass 10GB überhaupt nicht passen wollen.
 
  • Gefällt mir
Reaktionen: Aquilid und ZeroStrat
Der-Orden-Xar schrieb:
Epischer Stromverbrauch ja.
Die TDP der 80er und 90er ist weit über denen der aktuellen Titan. Hat nvidia es wirklich nötig hier den Intelweg zu gehen bzw den früheren AMD-Weg und durch massiven Stromhunger Leistung zu erzeugen?

ich sage da eher Hello AMD, ihr habt doch hoffentlich was effizienteres zu bieten oder will nvidea wirklich mit der 70er Karte die aktuelle Titan pulverisierten?
Das wird sich zeigen, wenn der Stromverbrauch nicht reine Brechstange ist, sondern auch die Performance pro Watt solide ist, dann wäre das natürlich super. Da ist mir dann der Stromverbrauch auch egal und die 70er wäre dann trotzdem super nice.
Wenn nicht? Dann halt nicht, gibt auch noch AMD.
 
Speicher wird wieder von Micron kommen, oder?, dann warte ich lieber paar chargen ab. Bin schon mit der 2080Ti auf die Schnauze gefallen.
 
  • Gefällt mir
Reaktionen: Dimos
Warum Nvidia mit dem Speicher so spendabel ist? Wer die paar Cent-Bausteine teuer bezahlt ist doch Nvidia gegenüber spendabel oder habe ich was verpasst?
 
Freiheraus schrieb:
320W bei der RTX 3080 verstehe ich nicht. Die müsste folglich so viel Rohleistung haben, dass 10GB überhaupt nicht passen wollen.
Ich gehe davon aus das du diese 320W nur mit Tensor und Co erreichen wirst, diese werden ihr eigenes Powerbudget bekommen und müssen es nicht mehr mit der GPU teilen, wodurch sich beides zusammen, gegenseitig bremst.
 
  • Gefällt mir
Reaktionen: adAstra und MrNejo
Buggi85 schrieb:
Es ist ja nicht so das man einfach in DX12 Raytracing nutzt und automatisch die Kerne von Nvidia angesprochen werden.
Also nach meinem bisherigen Verständnis ist es genau so.

Dass die Kerne von Nvidia genutzt werden, ist ja Nvidias Sache im Treiber, damit hat das Spiel nichts zu tun.
Daher gehe ich auch stark davon aus, dass man die bisherigen "RTX" Titel mit RDNA2 auch direkt spielen können wird, ohne dass dort auch vom Entwickler noch mal extra irgendwas auf AMDs Ansatz angepasst werden muss.
 
  • Gefällt mir
Reaktionen: bad_sign, fox40phil, gartenriese und eine weitere Person
Lübke82 schrieb:
Dann kauf eine leise Customkarte, die wird es sicherlich geben!
Ohne Wasser verteilen sich die Watt dann schön im Gehäuse. Smart ist anders und ich hab ne Wasserkühlung.
 
  • Gefällt mir
Reaktionen: poly123
Meleager schrieb:
Preise, wir brauchen Preise.

Je länger das zurück gehalten wird desto mehr Getratsche, je mehr Getratsche desto mehr Leute werden neugierig.
 
  • Gefällt mir
Reaktionen: Unnu
Taxxor schrieb:
Also nach meinem bisherigen Verständnis ist es genau so.

Dass die Kerne von Nvidia genutzt werden, ist ja Nvidias Sache im Treiber, damit hat das Spiel nichts zu tun.
Daher gehe ich auch stark davon aus, dass man die bisherigen "RTX" Titel mit RDNA2 auch direkt spielen können wird, ohne dass dort auch vom Entwickler noch mal extra irgendwas auf AMDs Ansatz angepasst werden muss.

Genau so ist es. Raytracing wird in DX12 über die DXR API angesprocchen. Es liegt bei den Grafikkartenherstellern, diese in ihre Hardware richtig einzubeziehen.

RT läuft bei Nvidia über ihre RT-Cores und bei AMD wohl dann über die TMUs. Das Spiel sieht darin jedoch keinen Unterschied, da es einfach auf DXR zugreift.
 
  • Gefällt mir
Reaktionen: gartenriese und Dimos
Also die hohen Verbrauch Angaben schrecken mich etwas. Sind nochmal 55w mehr als bei meinen vega 64. Und ohne Undervolting sind das Heizlüfter.

Phu das wird spannend in nicht extrem gut belüfteten Gehäusen.
 
  • Gefällt mir
Reaktionen: poly123
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

Echt? War bei den AMD Karten ja immer DAS Totschlag-Argument schlechthin... :freak: Da war das der Unterschied zwischen "gute Karten" und "vieeeeeel zu laut, völlig unkühlbar".
 
  • Gefällt mir
Reaktionen: fox40phil, Baal Netbeck, Acedia23 und 9 andere
nurfbold schrieb:
Unbefriedigend, wenn man auf eine 3080 mit mehr Speicher gehofft hat. Die Rohleistung der 3080 ist sicher mehr als ausreichend für 4k, der Speicher hingegen, je nach Spiel, nicht. Und das für vermutlich 800 € +. Als 4k User hat man eigentlich nur die Wahl, zur 3090 zu greifen oder zu warten, was AMD macht oder warten, bis die 3080 mehr Speicher spendiert bekommt. Wenn AMD was mit 16 Gigabyte und auf 3080 Niveau bringt, dann ist die Karte gekauft. Vorausgesetzt, die Raytracing performance kann mit NV mithalten, was leider eher unwahrscheinlich ist.
Ich denke, dass die 3080 der 2080ti in jedem Fall überlegen sein wird. Daher glaub ich nicht das Nvidia die für Weniger Geld als jetzt aktuell die 2080ti verkaufen wird. Bei der 3090 bin ich ganz deiner Meinung das Teil wird niemals weniger als 1500€ kosten ich denke auch eher in die Richtung 2000€ :-/
 
Augen1337 schrieb:
Laut diversen Forennutzern, wird alles immer so schnell knapp. "Da musst du nur <Platzhalter für Spiel> in 4K auf Max mit AA und Modtexturen spielen, schon wird das sehr knapp! Und selbst wenn nicht, wird der Speicherverbrauch in Zukunft exponentiell wachsen!!!EINSEINSELF!112" ... und kauft sich dann in einem Jahr wieder die neue Karte.

idr kauft sich das von dir genannte Klientel alle zwei Jahre zur neuen Generatio eine neue Karte.
zum Anderen gibt es jetzt neue Konsolen, die doppelt so viel Speicher haben wie die jetzigen = der Speicherverbrauch am PC wird ebenfalls steigen.

Und zu letzt werden Speicherfresser wie Raytracing vergessen. Selbst wenn nur die Raytracing Leistung steigt (die Konsolen mal außen vor) selbst dann steigt auch der Vram Verbrauch.

Und zu guter Letzt der Fortschritt:

2016:1080 8gb
2018: 2080gb
2019 2080s 8gb
2020: 3080 10gb? Also in 4 Jahren ganze 25% mehrspeicher?
Wie kann man das bei der Preisgestaltung nur so oberflächlich betrachten?
 
  • Gefällt mir
Reaktionen: fox40phil, Onkel Föhn, Sturmflut92 und 3 andere
Unvollständiges Lineup? Die TDP bei angeblichem 7nm Prozess macht mich neugierig, aber entweder. 10GB oder 24GB kann doch nicht ihr ernst sein ... Vor allem bei dem Preis, auch wenn der sicher fallen wird ...
 
  • Gefällt mir
Reaktionen: fox40phil und Dimos
Nach der "Super" Nummer letztes Jahr, ist doch der Releasetermin in ein paar Tagen absolut uninteressant. Preis? Leistung? Taktraten? Die Daten die da jetzt kommen haben doch alle potentiell ein Mindesthaltbarkeitsdatum, dass bereits mit dem RDNA2 Release ablaufen kann, wenn die was können.
Ich bin schon jetzt gespannt, wie viele CB Forenteilnehmer Early Adopter sich dann beklagen werden, da sie sich betuppt fühlen, weil sie nur die Non-Super Karten zur Auswahl hatten
 
  • Gefällt mir
Reaktionen: JPsy, fox40phil, Baal Netbeck und 6 andere
Zurück
Oben