News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Bunny_Joe schrieb:
Solange die Leute das zahlen, ja.

Kann man einem Unternehmen verübeln, dass Menschen ihr Produkt wollen?

Ja, ich finde es auch sehr sympathisch das sie ihre Kunden aufs maximum auspressen, sehr, sehr sympathisch.
Nie würde ich Nvidia etwas verübeln. Die haben sich schon immer, in allen Belangen, sehr fair verhalten.
Fast so fair wie Intel, die liebe ich genau so wie Nvidia.
:kotz:
 
  • Gefällt mir
Reaktionen: jemandanders und s0UL1
KlaraElfer schrieb:
Solange man die 3070 mit 2080Ti Leistung bekommt

Wenn man die TSE scores nimmt, die kürzlich geleakt wurden, kommt man so grob bei 40-50% mehrleistung für die 3090 über der 2080ti raus, wobei hier nicht klar ist, welche Testsystem zum Einsatz kamen und dann kommts noch drauf an, welchen takt die 2080ti hat und wie groß der OC headroom von jeweiliger Karte ist. Es gibt auch 2080ti scores mit Luft / Wasser OC, wo der Abstand nur noch 30% beträgt.

Der zweite Punkt ist, wie nvidia die SKUs aufstellt. Turing ist mit einem 106 Chip auf den 070 Karten gestartet und wurde mit dem super Upgrade dann mit dem 104 Chip bestückt.

Offenbar kommt die 070 Karte gleich mit dem 104 Chip, aber die 080 und 090 haben beide den 102.

Es kann hier also durchaus zu Verschiebungen innerhalb des Produktstacks kommen

Ob dann die 3070 an eine 2080ti rankommt, wird man denen müssen.

Ich denke eher, dass man bei der 2080 super rauskommt.

Was man bei Turing aber auch gelernt hat, ist, dass nvidia nichts verschenkt. Ist die 3070 so schnell wie eine 2080 ti, wird die auch entsprechend kosten.

Nvidia sägt bestimmt nicht mit einer midrange die alte high end Karte zum halben Preis ab.
 
  • Gefällt mir
Reaktionen: s0UL1
InsideInfinity schrieb:
Die 3070er soll genausoschnell werden wie eine 2080Ti ! Falls das stimmt wäre die 3070er nen absoluter Preishammer bei 600€.. Die 3080er soll 30-40% schneller werden als eine 2080Ti. Wäre für 800€ ebenfalls nen richtig fetter Deal im vergleich zur grottigen 2000er Serie.

Die 3070 so schnell wie eine 2080 Ti und für nur 200€ dann nochmal 30% bis 40% obendrauf? I doubt it.
 
Ich schätze, Nvidia wird die Namenswahl noch bitter verfluchen....
 
rolandm1 schrieb:
Ich bin auf die Tests und erste Erfahrungen gespannt.
Mal schauen, was die so können.
Die Einzige reale Sichtweise. Das ganze Spekulieren wird wie ein Kartenhaus zusammenfallen. Und viel wichtiger ist wohl was die Customer mit ihrem Kartedesign und Kühllösungen draus machen bzw. was von der möglichen Leistung übrig bleibt. Bei den TDP Angaben wird sich der eine oder andere auch über ein neues Netzteil gedanken machen müssen. Aber da gabs ja erst eine Vorstellung des neuen von BeQuiet mit 1100 Watt. :D
 
daknoll schrieb:
Ja, ich finde es auch sehr sympathisch das sie ihre Kunden aufs maximum auspressen, sehr, sehr sympathisch.
Nie würde ich Nvidia etwas verübeln. Die haben sich schon immer, in allen Belangen, sehr fair verhalten.
Fast so fair wie Intel, die liebe ich genau so wie Nvidia.
:kotz:

Willkommen in der Marktwirtschaft. Es gibt nichts geschenkt, absolut nirgendwo, von niemandem. Preisgestaltung hat viele Komponenten, aber eines ist sicher: An dich als Kunde, weil du so lieb und nett bist und als guter Bub eine billige Grafikkarte ja verdient hast, daran wird nicht gedacht.
 
  • Gefällt mir
Reaktionen: McLovin14, adius, MrNejo und 4 andere
D-Dave1.09 schrieb:
Jetzt explodiert die Leistungsaufnahme genau so wie die Preise, was mich wundert, da doch gefühlt jedes Unternehmen aktuell krampfhaft versucht sich ein "Grünes" Image zu verschaffen.
Das G ist doch schon grün :D
 
DrCox1911 schrieb:
Nö, einfach nicht kaufen, egal welcher Hersteller.

Na muss doch auch Niemand. Bloß rumgnatzen wie es hier viele meinen tun zu müssen, obwohl hier noch nicht mal etwas fix ist bei den Preisen oder wenn andere meinen sie können die Kohle dafür locker machen, find ich etwas.... naja, sagen wir mal höflich ausgedrückt, sehr fragwürdig. Alles wird überall derzeit teurer. Und da kann man hinschauen wo man will, aber hier bei GPUs ist es auf einmal immer zuviel.💁🏻‍♂️ Ich empfehle auf Gamestar den Artikel mit den Preisvergleichen über die jeweiligen Nvidia-GPU-Generationen.
 
daknoll schrieb:
Ja, ich finde es auch sehr sympathisch das sie ihre Kunden aufs maximum auspressen, sehr, sehr sympathisch.
Nie würde ich Nvidia etwas verübeln. Die haben sich schon immer, in allen Belangen, sehr fair verhalten.
Fast so fair wie Intel, die liebe ich genau so wie Nvidia.
:kotz:

Dir ist bewusst dass jedes Unternehmen versucht das maximale aus dir rauszuholen? Nennt sich Gewinnmaximierung und zeichnet gute Unternehmen aus.
 
  • Gefällt mir
Reaktionen: adius
AS2008 schrieb:
27 Seiten... wartet doch mal Dienstag ab. Da wird alles offiziell vorgestellt.
Dienstag wird man hier nicht mitlesen können, so schnell werden die postings kommen :D Ich werd mir zwar zu 99% keine Ampere-Karte kaufen, bin aber trotzdem sehr gespannt auf die Vorstellung.
 
  • Gefällt mir
Reaktionen: Recharging, jemandanders und Vitec
duskstalker schrieb:
Ich denke eher, dass man bei der 2080 super rauskommt.

Das wären dann ja nur +12% Leistung gegenüber der 2070 Super, halte ich für komplett ausgeschlossen, denn die Lücke zur 3080 wäre gigantisch.
 
  • Gefällt mir
Reaktionen: MrNejo und GERmaximus
asm schrieb:
Gemäß dem Fall, die 10GB VRAM sind bei der 3080 gesetzt.. für Grafiklastige Spiele wird das - gerade bei 4K - doch zum Flaschenhals oder?

Viel schlimmer, selbst wenn die Karte eigentlich noch Leistungsreserven für High/Ultra Details hätte, könnten Texturen eventuell nur noch mit Medium möglich sein, diese ziehen die Grafik dann so stark runtern, dass man auch gleich Mittelklasse hätte kaufen können oder man stottert mit Ultra-Texturen durch die Gegend ^^
Ergänzung ()

firejohn schrieb:
Mein Problem ist auch mit meinem G-Sync Monitor seit erster Stunde wo es auf den Markt kam. Jetzt auf AMD zu warten und auf FreeSync zu setzen, ich weiß nicht...nach Forendurchforstungen hab ich nichts gutes über FreeSync und G-Sync compatible gelesen. G-Sync modul und es ist perfekt, sei es unterstützte Frequenzen. Andere Eigenarten haben FreeSync und G-Sync compatible..

Du meinst Adaptive Overdrive? Gibt FreeSync/G-Sync compatible Monitore die tatsächlich den gesamten FPS-Bereich mit einer Einstellung ohne Geisterbilder abdecken.
Lediglich die Freesync-Range ist meistens mit 40-120/144 Hz geringer als bei G-Sync (ca. 30 Hz-120Hz).
 
Zuletzt bearbeitet:
hahaqp schrieb:
Dir ist bewusst dass jedes Unternehmen versucht das maximale aus dir rauszuholen? Nennt sich Gewinnmaximierung und zeichnet gute Unternehmen aus.
Ja, das ist mir bewusst.
Ein gutes Unternehmen zeichnet sich meiner Meinung nach durch eine transparente Produktpolitik, faire Preise, Nachaltigkeit und gerechte Entlohnung ihrer Mitarbeiter aus.
Und natürlich noch andere Dinge auch, sicher aber nicht durch Gewinnmaximierung und jeden Preis.
Apple z.B. ist auch so ein Unsympathenkonzern von denen ich nie auch nur einen Adapterstecker kaufen würde. 🙂
 
Meh. Eine TDP von satten 320 Watt bei der 3080 fände ich etwas arg ernüchternd. Warte ich wohl auf die übernächste Generation, so eine Stromschleuder brauche ich nicht....und auf 3070 upgraden bringt sowieso kaum was.
 
B.L. Swagger schrieb:
Das Teil soll 34 Millionen Transistoren haben, also fast doppelt so viel wie die 2080Ti.

34 Milliarden ;) aber ja, das wird einen guten Sprung geben.

In Prozent für AMD sogar noch mehr weil Navi 10 nur Mittelklasse war :D

Aber wichtig ist am Ende was hinten raus kommt.
 
  • Gefällt mir
Reaktionen: jemandanders, cookie_dent und B.L. Swagger
Moin,

also wird es beim nächsten Kauf wohl in all den Jahrzehnten wo Ich GraKas kaufe wohl doch nicht das Top Modell werden. Mit bis zu 1000€ habe Ich ja schon gerechnet. Aber das wird mir dann auch langsam zu viel des guten. Wahrscheinlich lasse Ich dann dieses Jahr auch noch die Finger von einem neuen Gamer pC und hole mir erst noch eine Xbox Series X. Da ein Wohnungswechsel ansteht Anfang des Jahres habe Ich sowieso andere Prioritäten. Und meiner jetziger Gamer PC wird dann eben noch ein Jahr laufen.

Aber egal wie schnell und gut die neuen Karten von nVidia werden das Max werde Ich nicht mehr kaufen können und wollen. Aber nichstdesto trotz ist diese 3090 wohl ein wirkliches Monster und man könnte sabbern. Aber wie gesagt alles hat eine Grenze uind die ist bei mir mit 1000€ schon mehr als erreicht.

MfG
 
duskstalker schrieb:
Wenn man die TSE scores nimmt, die kürzlich geleakt wurden, kommt man so grob bei 40-50% mehrleistung für die 3090 über der 2080ti raus, wobei hier nicht klar ist, welche Testsystem zum Einsatz kamen
Waren das nicht nur rein theoretische Werte? Laut Igor ist es gar nicht möglich die Karten zu benchen.
Um Benchmark-Leaks vorzubeugen, hat NVIDIA diesmal auch die Evaluation-Treiber komplett abgeschottet. Es laufen wohl noch nicht einmal mehr Furmark, geschweige denn Time Spy, sondern nur NVPunish (ein Stresstest-Programm) für die Thermal-Tests. Deshalb sollte man alle bisher geleakten Benchmark-Ergebnisse mit absoluter Vorsicht betrachten.
 
duskstalker schrieb:
Offenbar kommt die 070 Karte gleich mit dem 104 Chip, aber die 080 und 090 haben beide den 102.

Es kann hier also durchaus zu Verschiebungen innerhalb des Produktstacks kommen

Ob dann die 3070 an eine 2080ti rankommt, wird man denen müssen.

Ich denke eher, dass man bei der 2080 super rauskommt.
Gerade weil die 3070 direkt auf dem 104 chip kommt, ist sie eher als Nachfolger zur 2070S als zur 2070 zu sehen, sie hat ja auch die gleiche TDP wie die 2070s.
Und die 2070S ist nicht mal 15% langsamer als die 2080S
 
  • Gefällt mir
Reaktionen: rolandm1, KlaraElfer und MrNejo
Uff, wenn die Daten sich bestaetigen, dann wird das ziemlich enttaeuschend. Erst recht wenn das die Daten fuer die Founders Edition sind.

Die 2080Ti hat laut Nvidia 1635 MHz als Founders und 1545 MHz normal als Boost, gleichzeitig hat sie 4352 CUDA Cores. Die 3090 hat 5248 CUDA Cores und 1695 MHz Boost. Die Rohleistung von den Cores liegt bei 20.6% und die Leistung vom Takt bei 4% (Founders) oder 10% (normal). Das sind zusammen gerade mal 25.4% oder 32.6% mehr Rohleistung. Denn so wie es aussieht hat sich da nichts gross geaendert, ausser dass es mehr Einheiten wurden (A100).

Was die Generation wirklich mehr bietet ist Speicherbandbreite, aber ob das viel hilft wird man sehen.

Worauf ich allerdings am 1. September bei der Vorstellung tippe ist Bullshitbingo mit folgenden Buzzwords: DLSS, RT, RT Cores, Tensor Cores, KI. Denn ansonsten sind die Daten ziemlich langweilig.

Ich frage mich ob Nvidia sich hier moeglicherweise verspekuliert hat. Falls RDNA2 gut skaliert und man den Verbrauch in den Griff bekommt koennte AMD ernsthaft mit Nvidias Flagship konkurrieren. Ich bin wirklich gespannt auf die Vergleiche.
 
Touring hat auch mehr rausgeholt über die Zeit gegenüber Pascal. Die Mehrleistung würde nur stimmen wenn es sich um einen reine. Shrink handeln würde.
 
Zurück
Oben