News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen

.Sentinel. schrieb:

Du zittiert hier im Diagramm ganz spezielle Konsumerkarten, die vom Hersteller bis weit über die Kotzgrenze übersteuert worden sind.
Die MSI 390 ist der beste Beweis, dass man bereits von AMD am natürlichen Limit von knapp 300 Watt sogar noch auf fast 400 Watt hochjubeln konnte.
Auch die dargestellte 2080 Ti wird hier mit 320 Watt gelistet, obwohl NVidia 250 Watt vorgibt.
Ich sage ganz klar, dass die Karten bereits aus meiner Sicht am Limit waren, also die R290/R390X, udn auch die Vega64 und 2080 Ti sind meiner Meinung nach im Bereich dessen,w as man unter normalen Umständen maximal in einem Rechner verbauen sollte.
Klar geht noch mehr, man kann sich auch einen Kühlschrank mit 2000Watt hinstellen.
Wir können ja aber auch gleich alle einen 1000PS SUV kaufen, die Umwelt dankt es uns ind 20 jahren mit einem Kollaps.
Es sind und sollten CPU's weit unterhalb von 200 Watt und GPU'S klar unterhalb von 300 Watt mit toller Leistung für Jedermann herstellbar sein.
Die überdrehten Karten wurden schon damals stark kritisiert, udn weil Ampere noch viel schlimemr ist, darf hier also auch noch mehr darüber geredet und kritisiert werden. So einfach ist das nunmal.
Also ich hätte nichts dagegen, wenn es eine Verordnung für die Einhaltung bestimmter maximaler Verbrauchswerte wie bei Autos geben würde.
Meinetwegen könnte auch der ganze OC Kram total abgestellt werden, schließlich reden wir hier um marginale Zugewinne bei gleichzeitig stark überhöhte Verbrauchswerte.
Das klingt für viele jetzt sicher stark überzogen, aber wenn man einmal darüber kurz nachdenkt, ist das alles sehr plausibel und sehr umweltschonend, ohne dabei wirklich Kompromisse eingehen zu müssen.
Da senkt man auf einen Schlag 10-30% der Stromaufnahme, verliert aber nur ein paar wenige Prozent an Leistung, die man ja nicht einmal merken kann, eben auch, weil man sie in neuen Produkten ja gar nicht bekommt.
Da wird ein Produkt fertig geliefert und denkt wie bisher, wow , geile Scheiße, die ist ja viel schneller als die alte Karte.
Zugleich spart man sehr viel zeit und unnötige höhere Geldausgaben, nur weil man wie blöd versucht, die letzten 5% irgendwie herauszupressen, die wirklich nur im Benchmark als Zahl von Bedeutung fürs eigene Ego sind.
Niemand braucht sich deswegen grundlegend langsamere Karten kaufen, oder gar Karten aus dem Einstiegsbereich, d.h. der Umweltschutz kommt vollautomatisch (genaugenommen die geringere Belastung im angemessenen Rahmen, richtiger Umweltschutz wäre ja eine kleine APU für mindestens 10 Jahre, oder bis das Teil abraucht^^).
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: schkai und McTheRipper
  • Gefällt mir
Reaktionen: DeltaPee
cypeak schrieb:
es gibt auch eine welt außerhalb der 4k/uhd blase, und die ist sogar eher die regel als ausnahme - der großteil der leute spielt noch in fhd und wqhd - da sind 8gb noch gut.
Und ein Großteil der FHD-Spieler spielt auch mit Grafikkarten vom Schlage einer 1060. Worauf ich hinaus will: die 3070 hat als Zielgruppe nicht die Käufer von Karten mit 300€ UVP. Also muss sie für das Anwendungsszenario der Zielgruppe geeignet sein und nicht für das der "Mehrheit". Die Mehrheit kauft nämlich keine 3070.

SirMiles schrieb:
Siehe AMD, Vram meist im Überfluss, damit kann ich mir aber den Hintern abwischen wenn die Leistung nicht passt
Du sagst es ja selbst: "wenn die Leistung nicht passt". Dir große Sorge bei einigen (so auch bei mir), ist aber eben, dass die GPU-Leistung der 3070 für die Menge an verbautem VRAM zu hoch ist und es eben nicht zusammen passt.
Meine 1070 (die ich eigentlich gerne in Rente schicken will), hatte eben schon vor vier Jahren 8GB VRAM. Jetzt kann man sicher sagen: "puh, das war schon üppig viel (oder zu viel?) VRAM für die Leistung des Chips". Dann kommt die 2070, wieder mit 8GB. Ok... das passt die Speichermenge zur GPU-Leistung. Und jetzt kommt eben eine 3070, wieder mit 8GB und das bei einer wesentlich schnelleren GPU. Das hat für mich einen faden Beigeschmack.

.Sentinel. schrieb:
Status quo ist, dass man mal eben so im Gegensatz zur Vorgängergeneration die Leistung gesteigert hat und zudem die Preise MASSIV gesenkt hat. Man sollte meinen, dass die Kundschaft jetzt jubelt.
Aber der dauer- unzufriedenen und unersättlichen Konsumentenbrut ist das natürlich auch wieder nicht genug.
Man will mehr, mehr, immer mehr und kostenlos.
Das verstehe ich auch überhaupt nicht. RTX 20xx war beim Rasterizing kaum schneller als die 10xxer und noch dazu teuer. Da konnte man durchaus meckern, insbesondere weil die neuen Features (DLSS/RT), die eine 20xx von einer 10xx abheben konnten/sollten, zum Release auch kaum genutzt wurden.
Jetzt gibt es aber für wirklich angemessene Preise ordentlich Leistung und trotzdem wird gemeckert...
 
  • Gefällt mir
Reaktionen: KlaraElfer, iceshield und .Sentinel.
DeltaPee schrieb:
Ansonsten liest sich der Beitrag nur wie ein NVidia Bashing und wo war die Kritik als Vega auf den MArkt kamen mit 1070 Leistung und Minimum 650 Watt Netzteil, weil alles darunter auch ausgestiegen ist...?

Naja, also das Ausmass der Kritik an AMD/RTG zum RX Vega Marktstart war deutlich extremer als bisher zum ebenso verpatzten RTX Ampere Martkstart und die RX Vega Karten wurden in Grund und Boden geschrieben fuer den im Vergleich zur Abwaerme und Verbrauch deutlich hoeher anzusiedelnden RTX Ampere (Thermi-Fermi Revival) GPUs, also wenn kommt RTX Ampere dabei noch vergleichsweise gut bisher weg.

Dass da AMD/RTG Ihr Fett nicht zu Recht wegbekommen haetten, ist nicht wahr, immer noch deutlich mehr (ueber Monate hinweg) als das jetzt bei nVidia der Fall ist ;).

Die wenig enthusiastische/begeisterte Haltung bzgl. RTX Ampere oder gar ziemliche Enttaeuschung bzgl. RTX Ampere ist m.E. durchaus verstaendlich.

Das Ende der Welt ist es sicherlich nicht (vielleicht war auch die - von nVidia und Medien - puenktlich zur Martkstart-Hypepraesentation von CEO Huang geschuerte Erwartungshaltung, inklusive ueblicher Marketingmaerchen, zu gross), aber wie Du schon richtig geschrieben hast, gegen Maxwell und Pascal GPU-Generationen ist diese Thermi-/Fermi-angelehnte Ampere RTX GPU-Generation allenfalls durchschnittlich, auch bzgl. neuer Architektur-Features (nicht nur Rohleistung) im direkten Vergleich zu RTX Turing etwa.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeltaPee
.Sentinel. schrieb:
Es gibt im Netz inzwischen zig Tests zu Ampere. Ein Schönrechnen ist somit nicht mehr möglich, weil dieses sofort auffliegen würde.
Ich habe es ja auch in den Kontext gestellt zu Turing. Und die 20% oc, die man mal ganz entspannt auf die 2080Ti mit den aftermarket 2080Ti schieben kann, reduzieren auch entsprechenden Abstand .
ich bin stets irritiert über die Ergebnisse einer 2080 die in den Tests, ich kenne niemanden der so langsam unterwegs ist mit der eigenen 2080Ti.
FE stock Ergebnisse kann man direkt müde durchwinken.

Und kombiniert mit der Marketing Lüge twice the performacne as 2080 ist das aus Enthusiasten Sicht halt schon sehr entzaubert.

Ich sagte ja schon mal, beziehungsweise mehrfach, das ist alles eine Frage des Betrachtungswinkels, und Ampere hat solide Ergebnisse, aber den unter den Erwartungen gebliebenen Sprung von Pascal zu Touring nicht „über kompensiert“.Wenn man sich den Formfaktor und die Architektur der Ampere Grafikkarten anschaut, müssen wir halt realisieren, dass es Kompromisse waren.
ich hatte eigentlich erwartet dass die 3080 die Ergebnisse einer 3090 liefert.
Das ist nicht erfolgt, das macht Ampere ja nicht schlechter, lässt aber eben genau die 2080 TI besser dastehen als vor dem Release von Ampere.

Ich werde mir eine 3090 mit Wasserkühlung zulegen, denn die hat zumindest ansatzweise die Geschwindigkeit, die ich mir erhofft hatte. Immer noch nicht das was ich mir gewünscht hatte, aber immerhin
 
Chismon schrieb:
Naja, nvidia bekommt gerade ihr fett weg und mit Kritik meinte ich, dass der von mir Zitierte, sowas in dem Kontext gar nicht erst erwähnt, weil er schrieb, sowas sei ihm noch nie in 25 Jahren untergekommen... Letztendlich wird zu oft mit zweierlei Maß bemessen.
Nichts desto trotz hoffe ich das Nvidia es noch richtig zu spüren bekommt, damit die RTX 40xx richtig gute Karten werden, zu einem relativ fairen Preis.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Chismon
DeltaPee schrieb:

Natürlich lügen andere Firmen auch. Intel wirbt z.B. mit Sicherheit, hat aber 100 Lücken in seinen Prozessoren und Grafikeinheiten drin. Da gibt es einige Vorfälle, die ich jetzt nicht wieder rauskrame oder mit Nachrichten belege.

Was die Sache mit den Netzteilen betrifft: z.B. hat es die Redaktion der PC Games Hardware schwer getroffen, die hatten alleine schon mehrere Vorfälle, die verwenden keine billige Chinaböller mit zu wenig Leistung.
Es gibt da Meldungen in Wort und Bild, das brauche ich jetzt nicht raussuchen, um mich zu rechtfertigen.

Doch, TSMC ist mit seinen 7nm dem von Samsung überlegen, die lassen es sich auch sehr gut bezahlen.
Ich habe dazu einen Bericht gelesen.
nVidia ist sicherlich nicht nur aus der Not heraus zu denen gegangen, den Preisvorteil hat die Geschäftsleitung sicher auch gerne mitgenommen.
Ansonsten hätte man es definitiv schaffen können, die Speerspitze, also zumindest die 3090 in dem besseren Fertigungsverfahren produzieren zu lassen, das hätte man sich frühzeitig bei TSMC reservieren können.
Die Stückzahlen sind da so gering, das kann man immer unterbringen, vor allem jetzt, wo Huwai mit großen Stückzahlen mit Ansage ab September komplett abgebrochen ist.

Und klar ist Ampere an sich ein "Zustand" sondergleichen.
Bei all den Problemen, die dort auf einmal zusammenlaufen, das gab es in dem Umfang noch nie.
Jeder Hersteller hatte schon mit irgendwelche Problemen zu kämpfen, aber nicht mit so viele Dingen auf einmal.
Es erscheint wie ein unausgereiftes Produkt, was einige Wochen zu früh auf den Markt geschmissen worden ist.
Und der Käufer muss es nun wieder ausbaden.
Ein paar Meinungen dazu kannst du dir auch gerne bei der PCGH Redaktion abholen, steht alles heute bei denen auf der Webseite.
10 Meinungen - keine davon positiv.
Du kannst mir natürlich vorhalten, ich sei ein AMD-Fanboy.
Aber ich hatte bis vor kurzem noch einen alten Intel i7 3770K im Rechner, und auch jetzt habe ich noch eine NVidia 1080 drin stecken, die auch drin bleibt, wenn Big Navi ebenfalls irgendwelche Krankheiten aufweist (auch da würde ich dann meckern und mimosen^^).
 
Zuletzt bearbeitet von einem Moderator:
Laphonso schrieb:
Ich habe es ja auch in den Kontext gestellt zu Turing. Und die 20% oc, die man mal ganz entspannt auf die 2080Ti mit den aftermarket 2080Ti schieben kann, reduzieren auch entsprechenden Abstand .
Wieviele von 1000 Karten der unterschiedlichen AIBs laufen denn prozentual dann mit diesen +20% stabil?

ich bin stets irritiert über die Ergebnisse einer 2080 die in den Tests, ich kenne niemanden der so langsam unterwegs ist mit der eigenen 2080Ti.
Die Mehrzahl, die sich nicht sonderlich mit Computern auseinandersetzt erhält die von Dir als "langsam" bezeichnete Performance.

FE Ergebnisse kann man direkt müde durchwinken.
Weshalb? Waren die nicht zu kaufen?

Und kombiniert mit der Marketing Lüge twice the performacne as 2080 ist das aus Enthusiasten Sicht halt schon sehr entzaubert.
Der Enthusiast hätte die Transferleistung schon erbringen können, hätte man den Ausspruch auch in den Zusammenhang der Sheets gesetzt, die nvidia präsentiert hat.

In Sachen aktueller Shaderleistung in der PRaxis wurde von nvidia immer nur ein Faktor 1,7 genannt und das bei den Gaming- Workloads auf die sich deren Teitelauwahl bezog.

Ich sagte ja schon mal, beziehungsweise mehrfach, das ist alles eine Frage des Betrachtungswinkels, und Ampere hat solide Ergebnisse, aber den unter den Erwartungen gebliebenen Sprung von Pascal zu Touring nicht „über kompensiert“.
Der erwartete Sprung von Turing zu Ampere waren hier im Forum lange Zeit bei 30%-40% bei gleichzeitig erheblichen Anstiegs des Preises.

Wenn man sich den Formfaktor und die Architektur der Ampere Grafikkarten anschaut, müssen wir halt realisieren, dass es Kompromisse waren.
Ja- Jede Archtiektur erfordert eine Vielzahl an Kompromissen.

Ich werde mir eine 3090 mit Wasserkühlung zulegen, denn die hat zumindest ansatzweise die Geschwindigkeit, die ich mir erhofft hatte. Immer noch nicht das was ich mir gewünscht hatte, aber immerhin
Wünschen kann man sich immer mehr. Dennoch wirst Du mit Deinem Wassergekühlten System viel Freude haben. Vielleicht erfüllen sich sogar Deine Performancevorstellungen. Unter Wasser hat man schon Boosts bis 2150GHz gesehen. Ist ja auch nicht zu verachten und sind on Top nochmal 10% Mehrleistung zur Standard 3090.
 
  • Gefällt mir
Reaktionen: KlaraElfer
BxBender schrieb:
Vollzitat entfernt
ich sagte nicht das er unterlegen sei. Es geht rein um die Strukturbreite, bitte im Kontext bleiben...

Welche Probleme denn, der zu agressive Boost 3.0? Der ist gefixt. Nun steht nur noch die Verfügbarkeit im Raum und die Marketinglügen...

Übrigens bin ich sehr aktiv im PCGH Forum, ich kenne nur ein Netzteil das ausgestiegen ist, von mehr haben die Redakteure nicht berichtet...
 
Zuletzt bearbeitet von einem Moderator:
BxBender schrieb:
Jeder Hersteller hatte schon mit irgendwelche Problemen zu kämpfen, aber nicht mit so viele Dingen auf einmal.
Aha- Weil der Treiber ein fehlerhaftes Boost- Verhalten hatte und zu wenige Karten verfügbar sind?
Oder weil die Schutzschaltungen einiger alter Netzteile zu schnell greifen?

Ja- Das sind in der tat "ganz ganz viel Mehr Dinge auf einmal", als bei anderen Launches. ->NICHT
 
  • Gefällt mir
Reaktionen: KlaraElfer, McTheRipper und foo_1337
ZeusTheGod schrieb:
Das verstehe ich auch überhaupt nicht. RTX 20xx war beim Rasterizing kaum schneller als die 10xxer und noch dazu teuer. Da konnte man durchaus meckern, insbesondere weil die neuen Features (DLSS/RT), die eine 20xx von einer 10xx abheben konnten/sollten, zum Release auch kaum genutzt wurden.
Jetzt gibt es aber für wirklich angemessene Preise ordentlich Leistung und trotzdem wird gemeckert...
Genau diese Features machten aber den Aufpreis aus. Und das wird immer wieder ignoriert.
Zudem bietet die 3080 die doppelte Raster+Render Performance nach erst 3,5 Jahren im Vgl zur 1080Ti.
Das ist jetzt nichts wofür ich nonstop Nvidia applaudieren würde.
Ampere ist Turing in Iteration 2 und kann - was wir alle gehofft haben - die Preise wieder netter gestalten.
Mal sehen, welche Impulse RDNA2 hier setzt.
 
  • Gefällt mir
Reaktionen: Chismon
t3chn0 schrieb:
Ich lese immer so viel von 60FPS und so. Mir ist der Speicher fast wumpe. Meine Spiele benötigen im Ultra Preset fast alle ca. 4-7GB VRAM. Ich würde mir eine 3090 nur für den Ticken mehr Leistung holen, nicht wegen des VRAMs.

Geht mir genauso, nur eben mit einem 32:9 Monitor und 5120x1440p Auflösung. Ich kann die RAM-Ausführung der 3090 nicht gebrauchen und sehe es daher nicht ein dafür zahlen zu wollen. Mir wäre eine 3080ti mit 12GB wesentlich lieber gewesen.

Jetzt hoffe ich, dass die RX 6900XT das für mich bessere Produkt ist. Zwar soll Navi 22 mit 12GB kommen, nur denke ich nicht, dass Navi 22 mit 3080/3090 konkurrieren kann.
 
Laphonso schrieb:
Genau diese Features machten aber den Aufpreis aus. Und das wird immer wieder ignoriert.
Zudem bietet die 3080 die doppelte Raster+Render Performance nach erst 3,5 Jahren im Vgl zur 1080Ti.
Das ist jetzt nichts wofür ich nonstop Nvidia applaudieren würde.
Dann wirst Du aber in Zukunft ziemlich wenig applaudieren können, wenn die GPU Entwickler immer weiter gegen diminishing Returns in Sachen rasterizing zu kämpfen haben.
Da kannst Du dann nur hoffen, dass RTRT möglichst schnell zum Durchbruch verholfen wird, bzw. sich Pathtracing als Primärrenderer etabliert, da dann wieder Skalierungen in größerem Ausmaß möglich wären.
 
  • Gefällt mir
Reaktionen: Laphonso
@SKu

Eine 3080Ti wäre für mich auch optimal. Die wird jedoch viel zu nah an die 3090 rankommen. Ich denke, dass es außer der 3080 20GB nichts kommen wird.

Durch meinen Monitor ist AMD als GPU leider kein Thema. Ich würde mir wünschen, dass es ein Freesync/VRR Update gibt, immerhin kostet der Monitor 2800€ und es gibt Videos in denen dieser mit Freesync enabled läuft. Ich will aber keine Bastel-Lösung, von daher ist es zwangsläufig Nvidia.

Übrigens, die 3080 bekomme ich total easy auf 98% GPU Load, ohne auch nur in die Nähe von 144FPS zu kommen. Der Monitor kann ja bis 200Hz, aber bei der Auflösung wird man diese FPS in Tripple A Titeln niemals sehen. Deshalb "reichen" mir 144FPS.

Aber selbst die 3080 kann mir die nicht liefern. Immerhin habe ich mit der 3080 ca. 30 FPS mehr, als mit der 2080Ti. Das ist deutlich spürbar.
 
.Sentinel. schrieb:
Dann wirst Du aber in Zukunft ziemlich wenig applaudieren können, wenn die GPU Entwickler immer weiter gegen diminishing Returns in Sachen rasterizing zu kämpfen haben.
Da kannst Du dann nur hoffen, dass RTRT möglichst schnell zum Durchbruch verholfen wird, bzw. sich Pathtracing als Primärrenderer etabliert, da dann wieder Skalierungen in größerem Ausmaß möglich wären.
Da ist ja das Problem, dass die Meme GPU 3090 im Realitätscheck 4K Ultra RDR2 gerade mal die lächerlichen 10 bis 12 fps Korridor hat über der 60 fps avg Grenze, und sogar unter 60 landet in St.Denis z.B.

Und genau hier kann ich mich der Begeisterung nicht anschließen, denn wenn eine 3090 wirklich nominell und real 50% pauschal überall mehr hätte, bedeutet das in Games, in denen die 2080Ti schon mit 45 fps in die Knie ging (Metro,RDR2 etc), dass selbst eine 1500-1900 Euro GPU gerade mal die 60 fps solide nimmt.
WoW, WAS für ein Fortschritt! ;)

Die 3090 und 2080Ti sind "P/L Müll" (Edit: aus "rein für Gaming" only Sicht, nicht CC und workloads, interessieren mich nicht)für das, was sie an Euros gekostet haben, aber Enthusiasten wie ich kaufen nicht rational.
Zumindest hatte die 2080Ti noch 25% Abstand auf das nächste GPU Tier, die 3090 hat das nicht.

Die 3080 sieht hier top aus, wird in den beiden 4K Ultra Knaller Games aber auch brachial auf 60 fps geprügelt ohne DLSS, und daran erkennen wir, warum Nvidia richtig lag, hier eine Alternative anzubieten, da schon die 3090 ihren Glanz ohne DLSS bei Titeln aus 2019 verliert angesichts der traurigen Perfomancesprünge zur der 3080.

Ich freue mich auf die Reaktionen, falls das Undenkbare geschieht und AMD zieht an der 3080 vorbei.

Dann bleibt nur das: DLSS.

Und DAS kann Turing auch bereits.
Unabhängig von Ampere bleibt die 2080Ti damit eine 4K@60 Ultra RT DLSS GPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schkai und Chismon
Interessant ist auch dieses Video von Adored TV, welches Daten von Tom's Hardware, Guru 3D, ComputerBase, Anandtech, und Tech Powerup auswertend gegenueberstellt und aufzeigt, was man mit den RTX Turing und Ampere Generationen preis-leistungstechnisch geboten bekommen hat von nVidia im Vergleich zu den Pascal, Maxwell, Kepler und Fermi (Thermi) GPU-Generationen.

Da liest sich das Performance per Dollar Diagramm (ab 16:45) leider eher durchwachsen, im Hinblick auf die letzten beiden nVidia GPU-Generationen, wo man als Rezensent, TechTuber oder Konsument wohl nur ein schlechtes Zeugnis dahingehend ausstellen und einen nachteiligen Trend ausmachen kann.


Das sollte man vielleicht beruecksichtigen vor dem naechsten Grafikkarten-Kauf (hinsichtlich RTX Turing und Ampere) und auch wenn ich bekanntermassen ueberhaupt kein Fan von Adored TV bin, so basieren deren (enttaeuschende) Daten fuer diese Auswertungen (der beiden letzten nVidia GPU-Gernerationen) eben auf sehr glaubwuerdigen Quellen.

Vielleicht stellt sich ja nVidia dieser Kritik mit der nachfolgenden (gemutmasst MCM-Design) Hopper GPU-Generation, das muss man abwarten, aber es zeigt eben auch, dass der bemuehte Hype fuer RTX Ampere (und davor RTX Turing) es wohl nicht wert war, Adored TV schimpft RTX Turing vor RTX Ampere (ab 19:50) gar "the worst upgrade in GPU architecture history", naja zumindest bezogen auf die im Video beleuchteten nVidia GPU-Generationen.

Wie gut sich AMD/RTG allerdings mit RDNA2 Navi anstellen wird im historischen Vergleich, bleibt abzuwarten und ich hoffe, dass dieses ebenso schonungslos von Adored TV dann nach dem RDNA2 Marktstart per Video beleuchtet wird.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und iceshield
wenn ernsthaft 8gb bei ner 500€+ karte verteidigt werden, hat sich nvidia seine kunden wirklich vorzüglich anerzogen.
 
  • Gefällt mir
Reaktionen: Grundgütiger, Benji18, eXe777 und 3 andere
Was ein Mist. Dann wird's vielleicht doch eine AMD.
 
Zurück
Oben