News Nvidia Gaming Ampere: Hersteller-Benchmarks zur GeForce RTX 3070

Ich würde mich jetzt doch nicht an solchen diversen Details hochziehen. Fakt ist, für viele Consumer (gerne auch Gamer) bieten die neuen Karten einfach eine immense Erweiterung der Möglichkeiten: UHD, Multimonitor, Monitor-Sync bei hohen FPS, usw.

In diesem Sinne sollen diese dazu anregen, sich nach oben zu erweitern (neue Peripherie). Jetzt bekommt man wahrscheinlich eine Graka mit der annähernden Leistung einer 2080ti für round about 500,-€. Warum dann nicht das Setup erweitern? Was musste man für die jetzt gebotene Leistung denn noch vor 3 Monaten ausgeben?

Es geht doch auch nicht unbedingt darum, wieso jetzt ausgerechnet 2080ti Besitzer wechseln müssten. Für viele Leute da draußen, die sonst eher Midrange kaufen, sind sie neuen Karten (egal ob Nvidia oder AMD) ein Segen. Leistung satt.
 
  • Gefällt mir
Reaktionen: Heschel und MrNejo
LencoX2 schrieb:
Mangelhaft für UHD.
Die gezeigten Benchnarks wurden auch WQHD gemacht... ich glaube, da möchte Nvidia die Karte auch positionieren....
UHD wird wohl noch eine Weile über den Mainstream bleiben.
 
.Sentinel. schrieb:
@MasterAK

Gegenfrage:
Wieso sollte man das Silizium nicht ausreizen und Leistung auf der Straße liegen lassen, die sich ein Großteil dann sowieso über Overclocking wieder reinholt?

Moderne Sensorik schreit doch geradezu danach, das Maximum auszuloten...
Die CPUs machens richtig vor.

Weil die Effizienz einfach nur Grottenschlecht ist ? Wozu für ein paar Prozent Mehrleistung DEUTLICH mehr Strom verbrauchen ? Das ist unlogisch. Logisch ist hier nur das AMD wohl sehr nah an der 3080 oder gar schneller sein wird. Nvidia muss auf biegen und brechen immer VOR AMD liegen, seien es nur 5%. Das wird dann in Foren wie hier zb gehyped und gefeiert und alle nicht wissenden Schmücken ihre Rechner Grün - weil ja die Balken länger sind.

Nach deiner Logik hätte auch die 2080 und 2080ti deutlich mehr verbrauchen müssen, weil auch hier mit höherer TDP und Vcore noch mehr Leistung rauszuholen wären. Nur warum haben Sie es nicht getan ? Richtig - weil keine Konkurrenz da war.
Ergänzung ()

.Sentinel. schrieb:
Weil es immer irgendwann den Punkt gibt, wo man ein Feature, eine Funktion oder wie in diesem Falle eine die GPU ausreizende Sensorik einführt?
Das wäre zumindest eine plausible Vermutung. Die 3080 muss vielleicht die Konkurrenz auf Abstand halten...

Diese Sensorik gibt es nicht erst seit der 3080. Das ist der wahre Grund.
 
  • Gefällt mir
Reaktionen: Hofpils, derin und DarkerThanBlack
@chrilliB : Bei der Nvidia 3070 gibt es auch Dinge, die Leuten nicht passen:
Speicherkrüppel, vorsintflutliches Treiberpanel, Preisgestaltung, Heizende Stromfresser.
Hätten sie die 3070 mit 10 GB bestückt, würde ich sie in die Betrachtung einbeziehen, aber so ist sie für mich disqualifiziert.
 
.Sentinel. schrieb:
Wieso sollte man das Silizium nicht ausreizen und Leistung auf der Straße liegen lassen, die sich ein Großteil dann sowieso über Overclocking wieder reinholt?

Sorry, aber dieses Argument - weil wir es können - hatte in einer Firma noch nie eine gewichtige Rolle.
Es ist eher so - weil wir es müssen - so agieren die Firmen nach den Marktgesetzen von Angebot und Nachfrage.
Firmen sind bestrebt die Produktionskosten zu senken um den Gewinn zu erhöhen oder konkurrenzfähig zu bleiben. Daher ist die Herstellung einer GPU bis an die Kotzgrenze nur eine Option, welche man eingeht, wenn man es aus Konkurrenzdruck heraus muss!

Was passiert denn, wenn man eine GPU bis an die Grenzen betreiben muss? Man benötigt ein PCB mit mehr Layern. Man braucht eine bessere Spannungsversorgung mit mehr Phasen. Man benötigt einen besseren Kühler um die Abwärme abzuführen.
Das alles kostet in der Produktion Geld, was man als Gewinn verliert.

Soll ich jetzt etwa noch erklären, dass keine Firma auf Gewinn verzichtet, wenn sie nicht dazu gezwungen wird?
 
  • Gefällt mir
Reaktionen: Wintermute, schkai und Thorque
Sobald die 3070 flächendeckend rauskommt, wird die 2080ti eh obsolet. Besonders bis 1440p. 499,- EUR. Mega.
Für die 2080ti würde ich keine 400 Tacken hinlegen, sobald die 3070 verfügbar ist.
Dazu kommt noch AMD. Der Herbst/Winter wird super.
Interessant wird es auch, wenn die 3070 noch später mit 16gb kommt.
 
  • Gefällt mir
Reaktionen: Heschel und cypeak
die benches die nvidia veröffentlicht sind generell immer mit einem sehr wachen auge zu betrachten.

aber es ist schon auffällig wie hier die 2080ti besitzer sich die welt "gesundwünschen" - ob die 3070 nun 5% langsamer oder schneller ist und ob das für eine fe oder custom zutrifft ist letztenendes total egal wenn der preisvergleich 500€+ differenz(!) zu gunsten der 3070 spricht!

ab der verfügbarkeit der 3070 ist eine gebrauchte 2080ti keine 500€ mehr wert; da braucht man sich nicht selbst in die tasche lügen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JanTenner, Windell, cruse und 5 andere
DarkerThanBlack schrieb:
Sorry, aber dieses Argument - weil wir es können - hatte in einer Firma noch nie eine gewichtige Rolle.
Es ist eher so - weil wir es müssen - so agieren die Firmen nach den Marktgesetzen von Angebot und Nachfrage.
Firmen sind bestrebt die Produktionskosten zu senken um den Gewinn zu erhöhen oder konkurrenzfähig zu bleiben. Daher ist die Herstellung einer GPU bis an die Kotzgrenze nur eine Option, welche man eingeht, wenn man es aus Konkurrenzdruck heraus muss!

Das schöne ist doch, dass wir es, sobald AMD Ihre Karten unabhängig testen lässt schwarz auf weiß sehen werden. Jeder für seine 10 Lieblingsspiele.

Ansonsten kann man vieles vermuten, als plausibel erachten oder auch nicht. Egal wie wahrscheinlich... es bleibt ja doch nur raten(wobei ich auch denke, dass man sich bei der reinen FPS absichern wollte gegenüber AMD). Nur wie hier einige träumen das AMD ankommt und 3080 Leistung mit 16GB unter 500Euro verschenkt bei keinen Lieferproblemen... das glaube ich nicht. Hat AMD solch eine Karte dann kostet die auch dem Markt angepasst(und aktuell ist der Markt Nvidia).

Ich sagte das schonmal, ich find das Mega wenn AMD mal wieder gehobene Mittelklasseleistung verkaufen kann, da profitieren alle von. Besonders wenn man sagen kann, AMD hat ne 2160p Karte.

@allgemein

Ob die 8GB einer 3070 reichen wird man eh erst rückblickend bewerten können(und selbst da muss man unterscheiden ob jemand ne Graka für 2/4 oder 6Jahre nutzen will, welche Spiele, welche Auflösung welche Hz zahl... anders gesagt sehr individuell). Von Stand heute gesehen haben der 1060 die 6GB nicht sonderlich geschadet... und eine 1080ti wäre mit 8GB und 100Euro günstigerer UVP auch gut gewesen. Beiden geht bezogen auf Ihre Auflösung eher die Luft aus als der VRAM...


Warum man mit ner 3070 jetzt nicht 4k spielen sollte erschließt sich mir auch nicht. Mag ja auf AAA Konsolenports der next Gen zutreffen aber es gibt doch so unendlich viele Spiele mit denen man dennoch auf 4k klar käme... dazu wenn der VRAM knapp wird kann man die Texturqualität immernoch reduzieren. Obs einem jetzt passt oder nicht, ne 500Euro GPU in 2020 ist halt grad noch etwas höhere Mittelklasse, das man da ggfs. bei der maximalen Auflösung abstriche machen muss ist doch nur logisch. Und die +8-10GB wollen halt auch bezahlt werden, egal welcher Name drauf steht.

Ist mit den Ansprüchen immer so ne Sache, heute erzählen dir die Leute in den Foren ja schon das 60fps overall ruckeln würden und einem unter 144hz schlecht würde. Kann man machen aber dann darf man sich halt nicht wundern wenn man am Ende unzufrieden ist.

Das Ding ist, sollte die 3070 bei grob +/- 5% der 2080ti rauskommen passt das schon. Mit der Zeit wird die 3070 eh schneller werden, wie alle Generationen.

So oder so, könnte auch der Monitormarkt nen ordentlichen Schub bekommen, denn immerhin kann man jetzt (auch wenn hier und da mit abstrichen) mit ner 500Euro GPU in 2160p daddeln(ein AMD Pendant wird sich preislich dort nahtlos einfügen müssen)... Denn der Monitormarkt fühlt sich für mich auch sehr festgefahren an, da hoffe ich auf einen schönen impuls.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derin
.Sentinel. schrieb:
Gegenfrage:
Wieso sollte man das Silizium nicht ausreizen und Leistung auf der Straße liegen lassen, die sich ein Großteil dann sowieso über Overclocking wieder reinholt?
Wieso? Weil NV selbst seine Margen mindert und auch selbst aktuell größer Konkurrent ist. Denn bei Turing lief die 2080TI bei einer TDP von 250 Watt während aktuell 100 Watt mehr der Fall ist. Es bleibt aber nicht nur beim aufwendigeren Kühler sondern auch das PCB kommt dazu, welches deutlich mehr Layer hat, als der Vorgänger.
Hinzu kommt noch der relativ "günstiger" Preis, in Relation zum Vorgänger.

Moderne Sensorik schreit doch geradezu danach, das Maximum auszuloten...
Die CPUs machens richtig vor.
Ja. Deshalb ist Thermal Velocity Boost auch so ein Hit im Computerbase-Forum.
Sensorik zu verwenden um das Budget besser auszulasten ist das eine. Sensorik zu verwenden um Grenzen zu sprengen das andere.


Außerdem es reicht wenn man die 3090 hat, die den Chip voll ausreizt und mit Tripple Fan Design seinen stolzen Preis hat. Laut CB hätte NV aber für etwas weniger Performance im Einstelligen Bereich eine Sub 300 Watt Karte realisieren können.

schkai schrieb:
Das ist der wahre Grund.
Das weiß keiner. Keiner weiß wie gut kommende AMD Karten sind.
Ebenso könnte man meinen, dass man die 3080 auch einfach in jenen Games, in den Ampere Arch. aktuell nicht so gut unterwegs ist, weiter von den 2080TI Karten distanzieren wollte.

Weiteres Konsolen.
Digital Foundry hat übrigens ein gutes Video über die PS5 und Spiderman Remastered und dessen RT Umsetzung gemacht. Dort verglich man die PS5 mit der 2060 Super. Wenn auch die PS5 mit 2,23 Ghz etwas mehr Takt hat.
Falls aber die Konsolen Richtung, sagen wir 2070Super kommen (ohne Rechnerei) wäre man schon bei einer fiktiven 3060 und eventuell nicht mehr weit weg von einer 3070.
Die Konsolen selbst kosten aber 500 Euro. (Das ganze System mit Software)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schkai und foo_1337
cypeak schrieb:
die benches die nvidia veröffentlicht sind generell immer mit einem serh wachen auge zu betrachten.

Ich würde "Nvidia" dort mit "der Hersteller" ersetzen, dann passt das.

Und ich seh da auch nichts verwerfliches daran... geht ja auch niemand in ne Bar um ne Frau kennenzulernen und streckt die Wampe raus, wäscht sich nicht die Haare und putzt keine Zähne^^... ja ne gibts schon aber die sind dann halt selten erfolgreich.
 
  • Gefällt mir
Reaktionen: KlaraElfer, RogueSix, foo_1337 und eine weitere Person
LencoX2 schrieb:
@chrilliB : Bei der Nvidia 3070 gibt es auch Dinge, die Leuten nicht passen:
Speicherkrüppel, vorsintflutliches Treiberpanel, Preisgestaltung, Heizende Stromfresser.
Hätten sie die 3070 mit 10 GB bestückt, würde ich sie in die Betrachtung einbeziehen, aber so ist sie für mich disqualifiziert.

Die Problematik sehe ich persönlich auch. Das ändert vorerst aber nichts an den Leistungszuwächsen im jeweiligen Preissegment (von mir immer inkl. RTX 3080 mitgedacht). Und da ich nicht auf einen GPU Chiphersteller festgelegt bin, bedeutet das Erscheinen der Big Navi genau so eine Erweiterung der Möglichkeiten (z.B. wegen des größeren Speichers).

Jetzt heißt es abwarten und die Reviews begutachten. Dann erst zeigt sich, was wirklich geht. Das gilt für die 3070 ebenso wie für die AMD Chips. Ich bin auf jeden Fall gespannt!
 
M-7MkF7-D schrieb:
Die gezeigten Benchnarks wurden auch WQHD gemacht... ich glaube, da möchte Nvidia die Karte auch positionieren....
Das Marketing ist so eine Sache.
Die 2080Ti wurde auch als UHD positioniert.
Jetzt soll eine schnellere 3070 kein UHD koennen bzw wird nicht dort positioniert.
Demgegenüber steht was ich -und viele andere Gamer- möchte: eine UHD Karte mit mind. 10 besser 12 oder 16 Gig VRAM im vernünftigen Preisbereich.
Und damit meine ich keine 1500, 1200, 800, 700. Die Obergrenze sind 500-550 EUR für viele.
Ich kann warten... Sehr lange.
Ergänzung ()

chrilliB schrieb:
Und da ich nicht auf einen GPU Chiphersteller festgelegt bin, bedeutet das Erscheinen der Big Navi genau so eine Erweiterung der Möglichkeiten (z.B. wegen des größeren Speichers).
Ja, bin ich auch nicht prinzipiell. Jedoch werde ich nicht von einer Vega56 8GB auf eine andere 8 GB gehen. Fast egal wie schnell. Ausnahme vielleicht, wenn sie im Bereich unter 400 EUR wäre. Das wird so schnell nicht kommen.
 
Zuletzt bearbeitet:
eine 3070 ist so schnell wie eine 2080ti bei weniger Verbrauch, ist doch super. Der Vram nicht, aber es kommt eh bald eine größere Version. Ich weiß gar nicht wo das Problem ist. Die neuen Tensor Cores usw. werden in Zukunft zeigen wo der Hammer hängt
 
Lefty220 schrieb:
Nochmals alles was man jetzt gelesen und gehört hat, zeigen das die 3070 schneller ist wie die 2080ti, da kannst du sagen was du willst. Die Fakten sprechen halt für sich.

ComputerJunge schrieb:
Die drei Balkensieger sind Arnold, Blender, Luxmark - und repäsentieren Nutzungsszenarien, derentwegen diese Serie vermutlich eher selten erworben wird.
Für die Nutzerrolle "Gamer-with-a-noticeable-pile-of-shame" bleibe ich mit meiner Bewertung weiterhin zurückhaltend.
 
Zuletzt bearbeitet: (Formulierung)
Klar, weil ein Feature oder technisch überarbeitete Bereiche einer GPU natürlich den Wert der Karte in Zukunft steigern werden. Die GPU, ob sie nun 3070, 3080 oder 50.000 heißt, ist mit dem Erscheinen des Nachfolgers nur noch ein Überbleibsel vergangener Tage, verschwindet vom Markt und wird durch das neuere Produkt ersetzt.
 
scootiewolff22 schrieb:
Die neuen Tensor Cores usw. werden in Zukunft zeigen wo der Hammer hängt
Woher weißt du, ob AMD nicht etwas vergleichbares bringt? 🤔
 
LencoX2 schrieb:
Die 2080Ti wurde auch als UHD positioniert.
Jetzt soll eine schnellere 3070 kein UHD koennen bzw wird nicht dort positioniert.
Auch die 980Ti oder die 1080Ti wurden schon für UHD angepriesen..... die Anforderungen der Software steigen aber nun mal langsam im Lauf der Zeit, und ohne Abstriche war das selbst bei den Topmodellen auch noch nie machbar. :p
Gerade jetzt könnte wieder ein kleiner Schub in der Softwareentwicklung einsetzen mit den neuen Konsolen.
Ja die können 4K... mit Optimierung, Tricks und Abstrichen bei der Bildqualität.... was auch mit der 3070 möglich wäre.

Diese ersetzt ja im Lineup die 2070S... da hat auch niemand von einer 4K-Karte gesprochen.


4K 60FPS+ in modernen Triple-A-Titeln auf hohen bis sehr hohen Detaileinstellungen wird wohl noch ein bissl brauchen um im Mittelklassebereich anzukommen, vielleicht ist dann 8K schon wieder der nächste große Schrei.

Wer jetzt mehr will, muss halt entsprechend mehr zahlen, und sei es für mehr Speicher.


Aber warten können ist ja auch ein Segen. ;)

PS: Ich würde 3090-Leistung auch gerne für 200€ haben... :daumen:
 
RogueSix schrieb:
Ich hoffe ja noch auf einen TSMC 7nm bzw. N6 Refresh in der zweiten Hälfte 2021, sobald sich die 7nm Situation bei TSMC etwas entspannt haben dürfte...

Ich fürchte AMD macht dir da einen fetten Strich durch die Rechnung.
DOCs für Xbox und Playstation - 7nm
Zen3 - 7nm
RDNA2 - 7nm

Wenn AMD clever war haben sie sich ordentlich Kapazitäten gesichert.
 
Zurück
Oben