News Nvidia Gaming Ampere: Hersteller-Benchmarks zur GeForce RTX 3070

Benji18 schrieb:
aja gut das du die 3080 mit der 2080 vergleichst und nicht wie ich mit der 2080ti ....
Du schriebst nicht dazu, dass Du die 2080TI als Referenz nimmst. Von der 2080TI war Deinerseits erst die Rede, als Du sie in Verbindung mit der 2070 gebracht hast.

Es wird ja hier die Glaubwürdigkeit von nvidia und deren Aussagen in Frage gestellt, dass sie "viel schneller sei".

Sie haben aber mit ihrer Aussagen und Demobenchmarks nicht übertrieben. Der Leistungssprung von 2080 und 3080 fällt eben einfach so hoch aus und ist damit tatsächlich einer der höchsten Leistungszugewinne bei zeitgleich sinkendem Preis in einer Kategorie, den man lange Zeit beobachten konnte.

Wie gesagt- NVIDIA kommt nicht aus. Major shitstorm incoming, wenn die 2070 nicht auf 2080TI Niveau landet.
Und das zu recht....
 
  • Gefällt mir
Reaktionen: Toni_himbeere und Benji18
bugmum schrieb:
Wie immer. Keine Ahnung was ihr euch in Argumente verrent. Das sind Hersteller Benchmarks. Quasi BestCase.

So sieht's aus. Aber manche wollen sich halt gerne künstlich aufgeilen, wenn nVidia dann die unfassbare Frechheit besitzt, dass die RTX 3070 doch 0,0035876% unterhalb der RTX 2080Ti landet ;) .

Dabei sind Herstellerbenchmarks grundsätzlich ungefähr so ernst zu nehmen wie die Herstellerangaben zum Spritverbrauch eines KFZ und wie die Versprechen von Waschmittelherstellern zur blütenweißen Reinheit.

Den meisten hier geht es doch nur um pure Anti-nVidia-Hetze. Da wird alles verbissen wörtlich genommen und wehe.... weeeeeeeeehhhhhhheeeeeeeeee nVidia liefert nicht ab, dann ist aber die kleine Gamer-Seele so was von am Kochen!!11einself!!1 Möge Gott Gnade mit "der Lederjacke" haben! :lol:
 
  • Gefällt mir
Reaktionen: bugmum
.Sentinel. schrieb:
Du schriebst nicht dazu, dass Du die 2080TI als Referenz nimmst. Von der 2080TI war Deinerseits erst die Rede, als Du sie in Verbindung mit der 2070 gebracht hast.

Es wird ja hier die Glaubwürdigkeit von nvidia und deren Aussagen in Frage gestellt, dass sie "viel schneller sei".

wie gesagt ich bezweifle das Sie in jeder lebenslage die 2080ti schlägt hat man ja auch schön bei der 3080 vs 2080Ti gesehen. Da waren die Marketingfolien auch reines cherrypicking und der Abstand ist halt nicht so „groß“ wie angekündigt.

Ich bin aktuell mehr gespannt was AMD bringt, die Ampere ist für mich gemessen am Verbrauch eher enttäuschend.
 
  • Gefällt mir
Reaktionen: Chismon und .Sentinel.
leipziger1979 schrieb:
Naja, solange AMD nur spricht und nicht mal im Ansatz irgendwas liefert braucht sich Nvidia keine Sorgen machen.

nVidia liefert ja nun auch nicht wirklich. Da brauch sich momentan keiner Sorgen zu machen.
 
Benji18 schrieb:
weils bei der 3080 auch geheißen hat die ist viel schneller im schnitt sinds aber nur 15%-20% daher gehe ich davon aus das nur cherrypicking die 3070 vor der 2080ti zeigen und diese im mittel wahrscheinlich 10% drunter ist. Wobei preislich gemessen an der Leistung stand jetzt durchaus noch ein kracher.
Was für blödsinn das wieder ist. Wo ist die 3080 nur 15-20% schneller.
Wie kommt man auf 10% weniger zur 2080Ti. Nochmals alles was man jetzt gelesen und gehört hat, zeigen das die 3070 schneller ist wie die 2080ti, da kannst du sagen was du willst. Die Fakten sprechen halt für sich.
 
Lefty220 schrieb:
Nochmals alles was man jetzt gelesen und gehört hat, zeigen das die 3070 schneller ist wie die 2080ti, da kannst du sagen was du willst. Die Fakten sprechen halt für sich.
Die einzigen "Fakten" die man hat sind die Benchmarks von Nvidia, und laut denen liegt man in Summe knapp über der 2080Ti in den Spielen die dort angegeben wurden.
Und selbst da waren zwei Spiele dabei wo man drunter liegt.

Dagegen steht eben die "2x 2080" Aussage bei der Präsentation der 3080, die dann im Mittel eher bei 1.7x lag.

Damit entsprechen die 30TFLOPs der 3080 ca 19-20 TFLOPs von Turing.
Dieses Verhältnis auf die 20 TFLOPs der 3070 umgerechnet, liegt man hier ca bei 13 Turing TFLOPs und das sind ca 10% weniger als die 2080Ti.
 
  • Gefällt mir
Reaktionen: Benji18
Sollte es denn so kommen, wäre die UVP erheblich bodenständiger, als zuletzt. Den Bang-For-Buck der RTX2000 zu schlagen sollte jedoch kein Kunststück darstellen. Dieses Luftschloss hatte man höchstpersönlich konstruiert.

Scheint, als bekämen wir bei gegebener Marktverfügbarkeit interessante Konkurrenzsituationen, sowohl im CPU- als auch im GPU-Markt.
Zu maulen haben augenscheinlich nur eine Handvoll derjenigen, die selbst in diesem technikafinen Forum die klare Ausnahme bei der Preisbereitschaft darstellen.
 
  • Gefällt mir
Reaktionen: Cyberskunk77
Lefty220 schrieb:
Was für blödsinn das wieder ist. Wo ist die 3080 nur 15-20% schneller.
Wie kommt man auf 10% weniger zur 2080Ti. Nochmals alles was man jetzt gelesen und gehört hat, zeigen das die 3070 schneller ist wie die 2080ti, da kannst du sagen was du willst. Die Fakten sprechen halt für sich.

Ich denke @Taxxor hat es schon gut begründet wie ich zu meiner Aussage gekommen bin, trotzdem gemessen am Preis durchaus Ok.
 
Taxxor schrieb:
Damit entsprechen die 30TFLOPs der 3080 ca 19-20 TFLOPs von Turing.
Dieses Verhältnis auf die 20 TFLOPs der 3070 umgerechnet, liegt man hier ca bei 13 Turing TFLOPs und das sind ca 10% weniger als die 2080Ti.
So lange man den neutralen Test hier nicht mit eigenen Augen sieht, sind solche Rechnereien halt auch nicht viel mehr als ein witziger Zeitvertreib für Leute wie uns. Hier ist ein anderes, betrachtet man die Rohleistung pro SM (nicht pro Cuda Core), dann steht nur ein 5%-iger Taktvorteil für die 3080 im Raum bei ansonsten gleicher Anzahl an SM (68 zu 68). Sprich pro SM ist Ampere bei der 3080 ca. 25% schneller als Turing bzw die 2080ti (bei der 3090 sind es nur ca. 20%, wohl gemerkt alles auf Basis der 4K Gaming Werte). Überträgt man das jetzt auf die 3070 wäre diese ebenfalls 25% schneller pro SM und dann kommt auf 20% plus zur 2080 FE, das wären nur 2% hinter der 2080ti. Was ich damit sagen will ist, man kann viel und lange rechnen und am Ende kommt man immer auf etwas verschiedene Werte. Einzig und alleine der ungefähre Rahmen von -10% zu +5-10% zur 2080ti lässt sich da erkennen.
 
Zwirbelkatz schrieb:
Scheint, als bekämen wir bei gegebener Marktverfügbarkeit interessante Konkurrenzsituationen, sowohl im CPU- als auch im GPU-Markt.

Eben genau das. Abwarten und Tee trinken, wie immer...
 
legenddiaz schrieb:
Das ist totaler Blödsinn.... aber bleibt mal weiter bei eurer Meinung. :freak:
Außerdem geht der mehrgewinn bei einem UVP von 699€ an die Händler und nicht and NVIDIA...

1-2 Monate vor den Release der Next Gen Konsolen und AMD Grafikarten, die Karten so künstlich zurück zu halten, wäre wohl das dümmste aller Zeiten.
Die Masse macht es aus, der Hype war da. Die Leute hätten noch vor AMD, Nvidia die Karten aus den Händen gerissen. Es gibt so gut wie keine Karten im Handel, weil einfach zu früh gelauncht wurde und die Produktion erst am laufen ist.

Super Firmenstrategie. :daumen: Am besten noch warten und die künstliche Verknappung noch nach AMD und den Konsolen zu verzögern. Macht sinn...
nun wenn du das blödsinn nennst, dann machen auch andere firmen eben blödsinn. btw nvidia kann es sich leisten durch seine momentane marktbeherrschung in diesem berreich. ich glaube nicht, das nvidia sich vor amds 6000er reihe fürchtet. die gpus vorher waren jetzt auch nicht wirklich der knaller bzw konnten nvidia nicht in bedrängnis bringen;).
zu früh gelauncht oder einfach nur abgewartet? die karten verkaufen sich so oder so, da händler vorbestellt haben und endverbraucher genauso vorbestellt haben. würde behaupten, die wenigsten stornieren die vorbestellung, von daher gehört sowas zum geschäft;).
derweil tendiere ich auch zur 3070er, abwarten ob es bei einer standart 3070er bleibt oder da noch was nachgeschoben wird, siehe 16gb/ti version. auch kann ich den launch von amd abwarten, was die mit ihrer 6000er reihe auf die kante bringen....
 
Zuletzt bearbeitet:
feidl74 schrieb:
ich glaube nicht, das nvidia sich vor amds 6000er reihe fürchtet.
Warum betreibt dann Nvidia die 3080 und die 3090 nahe der Kotzgrenze, um möglichst viel Leistung rauszuholen? 🤔
 
@MasterAK

Gegenfrage:
Wieso sollte man das Silizium nicht ausreizen und Leistung auf der Straße liegen lassen, die sich ein Großteil dann sowieso über Overclocking wieder reinholt?

Moderne Sensorik schreit doch geradezu danach, das Maximum auszuloten...
Die CPUs machens richtig vor.
 
.Sentinel. schrieb:
Gegenfrage:
Wieso sollte man das Silizium nicht ausreizen und Leistung auf der Straße liegen lassen, die sich ein Großteil dann sowieso über Overclocking wieder reinholt?
Gegenfrage zur Gegenfrage: Warum macht Nvidia es dann erst jetzt, wo man bei Turing und Pascal deutlich weiter weg vom Maximum geblieben ist?
 
  • Gefällt mir
Reaktionen: Kodak, Chismon, Benji18 und 3 andere
Taxxor schrieb:
Gegenfrage zur Gegenfrage: Warum macht Nvidia es dann erst jetzt, wo man bei Turing und Pascal deutlich weiter weg vom Maximum geblieben ist?
damit du fragen darfst... Wer weiss das schon, aber naheliegend ist keine der möglichen Antworten, da weder die neuen AMDs und ihre Leistung wirklich bekannt sind und weil nvidia dies nicht kommuniziert. Alles kann, alles muss nicht...

Ich gehe davon aus, weil sie so den Sprung besser verkaufen konnten. Wenn Sie jetzt 80 Watt rausgenommen hätten mit ca. 5-8% weniger Leistung, hätte sich der Sprung von Turing auf Ampere nicht so aufgeblasen vermarkten lassen können... Biggest PErformance, for less Price etc. Nur meine Vermutung...
 
@DeltaPee Naheliegend ist, dass Nvidia die Leistung der neuen AMD GPUs schon einigermaßen einschätzen kann.
 
Taxxor schrieb:
@DeltaPee Naheliegend ist, dass Nvidia die Leistung der neuen AMD GPUs schon einigermaßen einschätzen kann.
Ahja, dann Belege es auch... Das werden sie sicher auch können, nun musst du die Korrelation zwischen dem und deiner Behauptung auch untermauern
 
DeltaPee schrieb:
Ahja, dann Belege es auch...
Habe ich geschrieben es ist ein Fakt? Es ist naheliegend, da die technischen Daten von Big Navi schon monatelang im Internet kursierten, und wenn wir als normale Internetnutzer was davon mitbekommen, dann kannst du davon ausgehen, dass eine Firma wie Nvidia davon schon weit vorher wusste, da die natürlich auch die Konkurrenz beobachten.

AMD hat z.B. bei Rome gesagt, dass es designed wurde, um gegen Intels 10nm CPUs anzutreten, die dann nicht gekommen sind.
Also hatten sie schon eine gute Vorstellung davon, was diese CPUs, die dann nicht gekommen sind, ca. geleistet hätten.


Und bei Nvidia ist es eben der logisch naheliegendste Grund, die Effizienz so runter zu hauen und die Karte für die letzten 3-4% noch mal 50W mehr ziehen zu lassen.
Die Karte wäre mit 96% ihrer Leistung bei 270W sehr viel attraktiver gewesen.

Das hat AMD bisher auch öfter gemacht, aber eben nur, weil man sonst nicht nah genug an die Nvidia Konkurrenzkarte rangekommen ist.
Hier sieht es also danach aus, als erwartet Nvidia von AMD eine Karte, die im Bereich der 3080 liegt, und geht mit diesen letzten 3-4% nochmal sicher, dass sie möglichst etwas drunter als gleichauf liegt oder aber auch, sollten sie sie stärker einschätzen, eben nur 5% statt 10% drüber liegt.
 
  • Gefällt mir
Reaktionen: Skysurfa
Taxxor schrieb:
Gegenfrage zur Gegenfrage: Warum macht Nvidia es dann erst jetzt, wo man bei Turing und Pascal deutlich weiter weg vom Maximum geblieben ist?
Weil es immer irgendwann den Punkt gibt, wo man ein Feature, eine Funktion oder wie in diesem Falle eine die GPU ausreizende Sensorik einführt?

Taxxor schrieb:
Hier sieht es also danach aus, als erwartet Nvidia von AMD eine Karte, die im Bereich der 3080 liegt, und geht mit diesen letzten 3-4% nochmal sicher, dass sie möglichst etwas drunter als
Das wäre zumindest eine plausible Vermutung. Die 3080 muss vielleicht die Konkurrenz auf Abstand halten...
 
Zurück
Oben