Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen
Der wäre es bezüglich der maximal möglichen Leistung eben schon. Ich hab die Karte schon durch die entsprechenden Parcours geschickt.
Das Marketing hat nicht gelogen. Die Werte sind in der Praxis abrufbar.
Sowohl der mögliche Raycount hat sich entsprechend gesteigert, als auch die FP32 Leistung.
Im Augenblick ruft die vorhandene Spiele- Software die Leistung aus bekannten Gründen (optimiert auf Turing Int32) nicht ab. Man hat sich ein Bein ausgerissen, um möglichst viel über INT abzuwickeln, um die zahlenmäßig völlig überdimensionerten Einheiten einigermaßen auslasten zu können.
Das könnte man sich zukünftig einfach wieder sparen. Und dann zieht Ampere davon.
Insofern pochen da zwei Herzen in mir. NVIDIA hat nie behauptet, dass die Karte durchgängig in allen Szenarien doppelt so schnell sei.
Sie haben das im Zusammenhang mit der Einzelauflistung der Leistungssteigerung der einzelnen Gewerke wie RT Cores, Tensor Cores und der FP32 Leistung gemacht.
Und bezüglich der Rohleistung ist die Karte alles in allem doppelt so schnell. Also stimmt das "Performance twice as fast" aus technischer Sicht.
Somit ist aus eben dieser technischer Sicht alles richtig, was da propagiert wurde. Man hat die abrufbare Rohleistung verdoppelt.
Es ist alles genau so nutzbar, wie in der Präse angegeben. Auch die RTRT und Tensor- Cores sind nun zeitgleich nutzbar, was künftig auch nochmal einen schönen Schub geben wird.
Ist jetzt nur die Frage, was die Entwickler draus machen...
Und ja- man musste kein Magier sein, um zu erraten, was der unerfahrene Konsument aus den Aussagen von Jensen, nämlich dass die Leistung in allen wichtigen Gewerken verdoppelt wurde und dass der Chip "twice as fast" ist, ableiten wird.
Nämlich +100% Performance in ALLEN Titeln.
Somit ist auch mir unverständlich, wie man solche Dinge vom Stapel lassen kann, egal in welchem technischen Zusammenhang solche Aussagen fallen. Solche Aussagen gingen und gehen IMMER nach hinten los.
Natuerlich spielt da die Pandemie mit hinein, aber wie gesagt, dann startet man eben speaeter, was ja jetzt nVidia loeblicherweise auch bei der RTX 3070 endlich macht (wobei das gewaehlte Datum ja auch andere Motive suggeriert), so dass man daraus schliessen kann, dass nVidia/Huang da eine Lektion gelernt haben.
Ob AMD/RTG nicht auch noch die Vorstellung etwas nach hinten verschiebt, die nicht weit entfernt von der Zen 3 Vermeer CPU Vorstellung am 8.Oktober liegt, muss man auch abwarten, moeglich ist das noch einiges.
Um wieder auf nVidia zurueck zu kommen, es war jedoch damit zu rechnen, dass RTX Ampere deutlich mehr Nachfrage generieren wird als das die eher enttaeuschende RTX Turing Generation, insbesondere, bei den angekuendigten Preisen.
Die fruehzeitige Einstellung der Turing GPUs (die auch eine Verknappung bewirken bzw. dass die Turing GPUs immer noch relativ preisstabil nach 2 Jahren bleiben) ist auch nVidias Entscheidung gewesen.
Mein Fazit waere also dahingehend, dass ein Teil auf nVidias Kappe (Eigenverantwortung) geht und ein Teil sicherlich unerwartet war und ebenso - wie schon von Dir trefflich erwaehnt - andere Hersteller/Entwickler ebenso getroffen hat (Sony etwa, bei Microsoft scheint man immer noch Konsolen ueber deren Store direkt ordern zu koennen und plant man wohl anders) und treffen wird (AMD/RTG wird davon auch nicht in gewissem Masse verschont bleiben und den ein oder anderen ohne GPU zurueck lassen).
Indizien fuer einen ueberhasteten, relativ schlecht organisierten Start hat nVidia aber einige geliefert, nicht nur die Kondensator- und Treiberproblematik bei den Custom-Modellen, die auf zu geringe Plan- und Testzeiten hindeuten, auch wenn das treibertechnisch zum Glueck kurzfristig geloest werden konnte (bei minimalen Leistungsabstrichen), so aber nicht vorgesehen war.
Wieso man so gehandelt hat, ist mir immer noch schleierhaft (auch wenn sich da aufdraengt, dass man moeglichst viel Geschaeft machen wollte mit den ungeduldigen/Early Adopter oder nVidia-loyalen Kunden, bevor AMD/RTG ueberhaupt auf dem Markt ist mit den evt. runderen RDNA2 Navi Produkten und eine Gelegenheit dazu bekommt), denn dieser beispiellose Pannenstart fuer nVidia Verhaeltnisse (bei AMD/RTG ist man so etwas eher gewohnt) hat wohl eher das Gegenteil bewirkt und einigek dazu bewogen, sich jetzt von nVidia (RTX Ampere) abzuwenden, die man ansonsten vielleicht doch haette gewinnen koennen.
Die Preise und die Hast, die nVidia bei diesem verpatzten Start da an den Tag gelegt hat, laesst mich auch darauf hoffen, dass AMD/RTG mit den kommenden RDNA2 Produkten (ueber die nVidia natuerlich schon groesstenteils Bescheid weiss, da man sicherlich interne Informanten dort hat bzw. es auch in ungefaehr abschaetzen kann anhand bekannter/oeffentlich einsehrbaren Daten) doch einiges zu bieten haben wird, welches nVidia den Absatz schwer machen koennte (insbesondere wegen der zu heissen GPUs und des bisher eher mickrig angesetzten Speichers fuer 4K/UHD, VR und RT-Raytracing, die RTX 3090 einmal ausgenommen, welches dann ueber scheinbar attraktive Preise kompensiert werden soll).
Nun, wir beide zaehlen wohl nicht zu den Leuten, die sich kaum/nicht gedulden koennen und fuer die gleich eine Welt untergeht, wenn Sie nicht zum Startschuss sofort Ihr Wunschprodukt ordern koennen und es wenige Tage spaeter in den Haenden halten koennen.
Davon wird es mit Sicherheit auch einige geben beim RDNA2 Navi Marktstart, koennte ich mir vorstellen, man kann es sowieso nicht allen Recht machen .
Inwiefern das dann negativ behaftet bleibt und den Ausschlag geben wird ob man nVidia, AMD/RTG oder gar Intel kaufen wird, bleibt abzuwarten.
Positiv sehe ich allerdings, dass viele jetzt noch auf die Vorstellung von AMD/RTG (und evt. erste Tests) warten werden und nicht auf die Fruehstart-Psychologie in dem Masse hereingefallen sind, wie das wohl beabsichtigt/erhofft war von nVidia, so dass hoffentlich das bessere/rundere Produkt am Ende mehr Kaeufer anzieht und nicht die in den Medien mehr beleuchtete/praesentere Marke oder das moegliche Kalkuel eines Fruehstarts.
Genau so sieht es aus.... Nur dafür wurde ein DLSS2.1 eigener neuer Modus integriert.
Und die 50-60 FPS, die man in entsprechend ausgestatteten Titeln zu sehen bekam sind nunmal "Realität" und spielbar. Da war vorher schlichtweg nicht im Geringsten dran zu denken, wenn man nicht 2 Titan RTX im SLI Verbund hatte und der entsprechende Titel das überhaupt erst unterstützt hat.
Da kann man sich noch so sehr an Definitionen aufhängen. Man muss die Möglichkeiten der Karte schon nutzen, die dafür geschaffen wurden, um 8K eben spielbar zu machen.
Nvidia ist ehrlich, wenn es darum geht, was sie unter 8K Gaming verstehen:
Mit RTX 3090 bei 7680 x 4320, hoher Grafikeinstellung und Raytracing aufgenommene Leistung (sofern zutreffend)
NVIDIA Deep Learning Super Sampling (DLSS) ist eine bahnbrechende KI-Rendering-Technologie, die Frameraten steigert und gleichzeitig schöne, gestochen scharfe Spiele-Bilder generiert. Dies geschieht mithilfe dedizierter Tensor-Recheneinheiten mit KI-Verarbeitung auf GeForce RTX-GPUs. Mit dem neuen Ultraleistungsmodus kannst du Einstellungen und Auflösungen für unglaublich detailliertes 8K-Gaming nutzen.
Übersetzt: High und keine Ultra oder Extreme- Settings und erst mit DLSS wird da ein richtiger Schuh draus.
Der User macht aus einem "es ist erstmals möglich, Spiele auch in 8K zu spielen ein":
8K mit minimal 144FPS und Ultra/Insane/Uber- Einstellungen.
Ein ständiges aneinander Vorbeireden von Marketing und überzogener Erwartungshaltung der Konsumenten.
Wie in so vielen Dingen...
Chismon schrieb:
die auf zu geringe Plan- und Testzeiten hindeuten, auch wenn das treibertechnisch zum Glueck kurzfristig geloest werden konnte (bei minimalen Leistungsabstrichen), so aber nicht vorgesehen war.
Mein Boost und meine Leistung ist im Schnitt um 25MHz gestiegen. Ich hab also ein Leistungsplus erhalten...
Ist zwar in der Praxis nur 0-1 FPS, aber einhergehend ist die Temperatur minimal gesunken und der Energieverbrauch auch
.
Zudem kann ich das Overclocking jetzt stabil höher betreiben.
Win-Win-Win
Das Marketing hat nicht gelogen. Die Werte sind in der Praxis abrufbar.
Sowohl der mögliche Raycount hat sich entsprechend gesteigert, als auch die FP32 Leistung.
Als Rosinenpickerei vom feinsten koennte man das auch sehen, zumal etliche namhafte Tech-Tuber das Gegenteil herausgestellt haben, von Gamer's Nexus bis hin zu Linus Tech Tips.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Diese Tech-Tuber duerften das wohl neutral/objektiver beurteilen koennen als Du oder das nVidia Marketing , so gesehen gebe ich da @Laphonso auch Recht (auch wenn wir normaler Weise eher selten die gleiche Meinung teilen).
Der "general leap" ist ganz klar auch eine Marketing-Luege von nVidia, siehe folgendes Video von Adored TV mit Daten von Computerbase, Tech Powerup, Anandtech, Guru 3D, und Tom's Hardware.com, daran gibt's de facto nichts zu ruetteln, denn RTX Turing und RTX Ampere sehen da vergleichsweise sehr bescheiden aus:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Es geht mir hier nicht um die Software. Die gibt es schlicht auf Ampere getrimmt noch nicht.
Es geht um die rohe Rechenkraft der Karten und dort holst Du in der Praxis den Faktor 2.
Das ist bereits durch Benchmarks belegt. Da gibts auch keinen Interpretationsspielraum.
Die Leistung ist in der Praxis abrufbar.
Du musst doch erstmal einen Titel haben, der die Eigenheiten und Gewerke/Möglichkeiten von Ampere berücksichtigt, um eine Bewertung der tatsächlichen Leistungsfähigkeit erhalten zu können.
Und ich habe inzwischen mehrfach erläutert, warum es diese Titel bis jetzt noch nicht geben konnte (INT).
Das gleiche wie bei Turing. Alle lachen, wegen der 30%, die die Karte bei den ersten Benchmarks im Schnitt an Leistung draufgelegt hat. Was wurde sich nicht über z.B. Ghost Recon oder auch einem Far Cry 5 lustig gemacht, die teils deutlich unter den 30% Zugewinn lagen. Die Enttäuschung war groß und die Kaufberatungen haben massenweise Pascal empfohlen.
Nur später ist vielen das Lachen im Halse stecken geblieben, als diverse moderne Titel dann auch mal 60% und mehr draufgelegt haben und Pascal immer weiter abgehängt wurde. Du wurden dann sogar mal wieder die üblichen manipulationsvorwürfe (künstlich ausgebremst etc.) laut.
Dass sich einfach die Anforderungen der Engines an die Karten ändern und einfach anders optimiert wird, kommt da wenigen in den Sinn.
Geschichte wiederholt sich immer und immer wieder. Nur lernen viele daraus nicht.
... nicht um die Software. Die gibt es schlicht auf Ampere getrimmt noch nicht.
Es geht um die rohe Rechenkraft der Karten und dort holst Du in der Praxis den Faktor 2.
Das ist bereits durch Benchmarks belegt. Da gibts auch keinen Interpretationsspielraum.
Du musst doch erstmal einen Titel haben, der die Eigenheiten und Gewerke/Möglichkeiten von Ampere berücksichtigt, um eine Bewertung der tatsächlichen Leistungsfähigkeit erhalten zu können.
Gut, aber da argumentierst mit Zukunftsmusik (etwa erinnernd an Rapid Packed Math, was auch nie bei RX Vega von AMD richtig umgesetzt und ausgereizt wurde) und noch stecken die RTX Ampere Karten im CPU-Limit und wieviel sich da tun wird, wird man erst abwarten muessen (was Zen3 Vermeer oder Rocket Lake CPUs daran evt. aendern werden koennen).
Ob das klappen wird und die volle Leistung auch wirklich so auf die Strasse gebracht werden wird und in welchem Umfang (so wie bei RT-Raytracing, was immer noch Nische ist, und wenn nicht, wie lange wird es dauern, bis es fast allgegenwaertig ist?), das ist doch der springende Punkt.
Die Tatsache, dass bspw. 8K Gaming (preislich und hardwartechnisch) ueberhaupt noch keine halbwegs ausgereifte Grundlage hat und mit 30fps ungenuegend ist (DLSS zaehlt da als in ausgewaehlten Titeln verfuegbares Hilfsmittel auch nicht hinein fuer einen hoeheren Aufloesungsstandard, wie richtig von Gamer's Nexus herausgestellt ... das 8K Gaming mit der RTX 3090 ist absurdes Marketing, das wird geschaetzt noch 1-2 Generationen brauchen bis man davon gerechtfertigt sprechen wird koennen) zeigt doch wie absurd das Marketing von nVidia bei der RTX Ampere Vorstellung war und natuerlich gehoert das auch kritisiert (ebenso wie bei RTX Turing RT-Raytracing, welches von Huang sofort in Aussicht gestellt wurde mit jeder Menge Titel die bis heute nicht auf dem Markt sind, aber wofuer es auch ueber Monate nach Marktlstart nichts gab bis Battlefield V kam und das dann mittelpraechtig erstmalig implementiert hatte).
Es waere ja auch nicht das erste Mal, dass eine GPU ueberladen und schlecht ausgelastet wird und dann die Leistung nicht gut skalierend generell umsetzen kann (die Abwaerme aber schon), wenn man da etwa an AMDs/RTGs R9 Fury X denkt.
Versprechungen mit Marketing kann man viele machen, aber man sollte das erst tun, wenn es auch dafuer auch erste stichhaltige Beispiele/Beweise gibt und es kein Nischenphaenomen ist oder erst noch entwickelt werden muss im Nachhinein, denn das ist unserioes (das gilt nicht nur fuer nVidia, auch fuer AMD/RTG, Intel, usw.)
Dahinter steckt ja auch ein Kalkül, das wir dekonstruieren können.
Prämisse:
Die Enthusiasten stellen die absolute Minderheit und kaufen eh immer die Top#1 oder #2 GPUs, da braucht man keine Werbung. Die sind liquide und kaufen nicht rational, sondern aus Fun und fps und best in slot - Motivation.
Die musste man nie überzeugen von irgendwas.
Aber für die 95% "Rest" der PC Gaming Horde:
1.) hat Jensen DIREKT und "persönlich" die enttäuschte Pascal-Gen-Gruppe addressiert im Launchvideo, also alle, die vor allem ihre 1070, 1070Ti, 1080 und 1080Ti behalten haben. Diese Gruppe hat - mit Ausnahmen - keinen Cent in/bei Turing gelassen. Die Quartalszahlen bzw. Nvidia selbst hat das ja bestätigt
2.) hat Jensen mit "twice as fast as 2080" und "faster as 2080Ti" jetzt die Turing-Gen-Gruppe angesprochen, die Nvidia gerne für die 3080 oder gar 3090 jumps abwerben möchte.
Ampere hat also in dem Ampere "GPU business case" 2 Meilensteine, die erfolgskritisch sind:
1.) Die verlorene Pascal Gruppe wiederholen und an Ampere/Nvidia binden, bevor AMD das schafft
2.) Die Turing Gruppe für die zweite Turing Iteration - denn genau das ist Ampere - zu gewinnen und nicht , analog Pascal, zuzulassen, dass die eine Gen auszusetzen und auf die 4000er Gen warten.
Dazu ist Marketing legitim, auch wenn es wörtlich genommen Unwahrheiten sind, Übertreibungen und dreist in Kauf nimmt, dass man ja "das war so und so gemeint" damit versteht. Das ist unseriös, und "so" läuft Marketing auch nicht, wenn man es ernst nehmen will.
Was mich einfach irritiert hat: So unsouverän wie zum Ampere Launch habe ich Nvidia bei den Turing, Pascal und Maxwell Releases nicht erlebt.
Hat Nvidia, nach fast einem Jahrzehnt und trotz 75% marketshare und Dominanz im PC Gaming GPU Segment, nun doch zum ersten Mal Sorge vor AMD und RDNA2 und schiebt die Marketing Slogans daher an den Rand der (Un)Glaubwürdigkeit? 🤔
Das ist die Wette, die man mit jeder GPU Generation wieder aufs Neue eingeht.
und noch stecken die RTX Ampere Karten im CPU-Limit und wieviel sich da tun wird, wird man erst abwarten muessen (was Zen3 Vermeer oder Rocket Lake CPUs daran evt. aendern werden koennen).
Da sagst Du was- Das hätten sich viele nicht träumen lassen, dass sie mit ihren High- End CPUs plötzlich auch schon in höheren Auflösungen im CPU Limit stecken.
Kommt halt davon, dass viele Publikationen CPUs im GPU- Limit getestet haben (dafür aber vermeintlich praxistauglich auf FullHD oder höher). Dadurch hat man genau die Information nicht erhalten, die die einzig wichtige ist, nämlich wie sich so eine CPU schlagen wird, wenn das GPU Limit durch eine neue Grafikkartengeneration nach oben verschoben wird.
Jetzt haben wir den Salat...
Ob das klappen wird und die volle Leistung auch wirklich so auf die Strasse gebracht werden wird und in welchem Umfang (so wie bei RT-Raytracing, was immer noch Nische ist, und wenn nicht, wie lange wird es dauern, bis es fast allgegenwaertig ist?), das ist doch der springende Punkt.
Ja. Das ist mit jeder neuen Technikspielerei so. Wird sie nicht genutzt, schaut man blöd aus der Wäsche.
Wie oben geschrieben. Es ist immer eine Wette auf die Zukunft.
(DLSS zaehlt da als in ausgewaehlten Titeln verfuegbares Hilfsmittel auch nicht hinein fuer einen hoeheren Aufloesungsstandard, wie richtig von Gamer's Nexus richtig herausgestellt ...
Das ist keine valide Argumentationsweise. Wenn die Möglichkeiten, die ein 8K Spielen ermöglichen nicht genutzt werden, dann ist das nicht der Hardware anzulasten, die dies im Zusammenspiel aller Gewerke bewerkstelligen könnte.
Das ist wie wenn ich eine GPU habe, aber alles über die CPU rastern lasse und die GPU nur für die Ausgabe des Bildes verwende. So war es zu Anfangszeiten der Grafikbeschleuniger.
Denn wer weiss, wer ein GLIDE oder DX oder sonstwas unterstützen würde....
Das sagt aber nunmal überhaupt nichts darüber aus, wie schnell die Karte arbeiten kann, wenn sie mit all ihren Möglichkeiten genutzt wird.
Und damals hat ob der Tech- Demos der Vodoo- Chips niemand laut "Betrug" gebrüllt, nur weil zu 99% nur Titel zur Verfügung standen, die rein über CPU und VESA liefen.
Es waere ja auch nicht das erste Mal, dass eine GPU so ueberladen und schlecht ausgelastet wird und dann die Leistung nicht gut skalierend generell umsetzen kann, wenn man da etwa an AMDs/RTGs R9 Fury X denkt.
Siehe oben- Das ist kein Fehler der Fury X sondern der Software, die deren Möglichkeiten nicht nutzt/umsetzt.
Zudem hatte die Fury X pe se Auslastungsschwierigkeiten, die auch abseits der Software lagen. Das Design war nicht effektiv genug um die aktuellen Spieleworkloads zu verpacken.
Versprechungen mit Marketing kann man viele machen, aber man sollte das erst tun, wenn es auch dafuer auch erste stichhaltige Beispiele/Beweise gibt und es kein Nischenphaenomen oder erst noch entkwickelt werden muss im Nachhinein ist, denn das ist unserioes (das gilt nicht nur fuer nVidia, auch fuer AMD/RTG, Intel, usw.)
Im Gegenteil- Der Shitstorm und die Häme war dort erheblich größer als jetzt bei Ampere.
Mit der gleichen Begründung. Von den technischen Neuerungen kann man "jetzt" nicht profitieren und mit der alten Software konnte man das Potenzial nicht ausreizen.
RTRT war eine absolute Nullnummer mit kläglichen Erstumsetzungen. DLSS war unbenutzbar usw. usf....
Wie bereits mehrmals geschrieben. Die Geschichte wiederholt sich. Das Spielchen hatten wir zu jeder Einführung einer neuen DX- Version oder neuen einschneidenderen Grafikfeatures.
Shitstorm, shitstorm und noch mehr shitstorm mit Hoffen auf die Zukunft.
Die Grafikkartenentwickler müssen aber den Innovationszug weiterfahren, da alles andere Stillstand bedeuten würde, der mittelfristig in einer Sackgasse mündet.
Wir befinden uns mitten in einem Technologiewechsel in welchem sowohl das klassische Rasterizing neu definiert wird (durch z.B. DLSS welches aus einem Snapshot- Rasterizing ein temporales Supersampling- Rasterizing macht) als dass man auch langsam das Ruder in Richtung Pathtracing rumreisst.
Und das sind notwendige Entwicklungen, um auch zukünftig im Grafikkartensektor weiter schöne Fortschritte an die User verkaufen zu können.
Die Übergangszeit jetzt ist natürlich unangenehm, weil man an zwei Fronten kämpfen muss. Muss man sowohl die alte Software beschleunigen, als auch Einheiten bereit stellen, die die Zukunft abbilden, aber bei alten Titeln nutzlos vor sich hin idlen....
Moment! Der Shitstorm erfolgte dort, weil die Raster+Redner Performance nur eine einzige GPU offenbarte, die Pascal messbar und deutlich übertraf: Die 2080Ti. Für 1200 Euro.
Die 2080Ti war auch die "quasi" einzige GPU, die man quasi mit Raytracing überhaupt mit Frames jenseits der 60 und Raytracing hatte.
Die 2080er zogen erst in DX12 nachher spürbar an der 1080Ti vorbei, das dauerte dann auch noch viele Monate nach Release und einige Titel.
Das early adopter Featureset DLSS und Raytracing brauchte VIEL länger und hatte viel weniger Titel als erhofft, und da muss ich Nvidia verteidigen, hier haben die Studios und devs einfach die Zusagen nicht gehalten.
Im Gegensatz zu Ampere hat Nvidia aber nicht so Marketing Postulate aufgestellt, die in der Menge und Häufigkeit zerlegt wurden wie zu Ampere. Das ist mein Vorwurf.
Dieses "8K gaming" und "2080 x 2" und "biggest generational leap" und "faster as 2080Ti" fauxpas-festival hatten wir bei Turing nicht.
Turing hatte die Bürde, den Technologiesprung via Tensorchips stemmen zu müssen und die Mehrkosten der Fertigung auf die Preise zu legen.
Allerdings hatte die 2080Ti noch 25% mehr fps als Top Tier GPU für 1300 aftermarket Euronen vs 1500-1600+ Euronen einer 3090, die dann bei 15% gegenüber der next tier GPU liegt.
Egal von welcher Seite ich komme und schaue: Nvidia ist mit all diesen Ampere Marketing fails inkl. dem quasi Paperlaunch und dem Treiberfiasko (was wir immer nur AMD vorwerfen) nicht mehr die unangreifbare Nummer 1, die sie jetzt so lange war.
Nvidia ist mit all diesen Ampere Marketing fails inkl. dem quasi Paperlaunch und dem Treiberfiasko (was wir immer nur AMD vorwerfen) nicht mehr die unangreifbare Nummer 1, die sie jetzt so lange war.
Erst jetzt, da der Klassenfeind sich mal den Strom genehmigt, denn die Konkurrenz teilweise auch vorher schon abgerufen hat, muss ein Gesetz und ein Verbot her für diese unsäglichen Teufelsprodukte.
Das lustige daran ist doch das jene damals Gift und Galle wegen dem Strombedarf spuckten und nvidia für ihre Effizienz lobpreisten weil dieser und die Abwärme ja so unzumutbar wäre, welche jetzt nichts mehr davon wissen wollen und versuchen den nun noch höheren Verbrauch schön zu reden. Nennen wir es Karma
Im übrigen war die "Radeon RX Vega 64 Liquid Cooled" eine Sonderversion mit AIO WaKü, die Vega64 Referenz lag bei ca. 300W.
Die FuryX brachte ebenfalls eine WaKü mit.
... kommt darauf an, wie AMD sich jetzt schlägt. Versieben die auch, ändert sich in Sachen Wahrnehmung der Marke "nvidia" garnichts. Meine Hoffnung ... dass deren neue CPUs richtig zünden ... wäre für mich als High- End GPU nutzer wichtiger, als ein Big Navi, der sich unterhalb einer 3090 einordnet.
Ich bin da ganz egoistisch
Bei mir liegt der Fall genau anders herum, weil ich keine Heizkraftwerk-GPU/RTX Ampere mit zu wenig SPeicher fuer 4+ Jahre daheim haben moechte und klar, man kann untervolten, aber das gehoert eher zum AMD/RTG-Experimentier-Vokabular, bei nVidia ist man gewohnt da nicht manuell nachbessern zu muessen.
Nicht, dass ich etwas dagegen haette, wenn Zen3 Vermeer richtig gut gelingt (wobei ich sogar noch mit Zen2 Matisse leben koennte zur Not), denn solch einen Prozessor peile ich im kommenden Jahr mit 8 oder 12 Kernen auch an, aber deutlich wichtiger ist mir eher, dass AMD/RTG einen Fuss (besser gleich ein ganzes Bein) in den GPU-Markt-Tuer mit RDNA2 Navi bekommt und die Verhaeltnisse etwas auf den Kopf stellt, noch bevor Intel da auch versucht seinen Fuss hinein zu bekommen (mit oder ohne erstem MCM-Gaming-Design, wobei ersteres nur fair waere, denn Raja hat das als erster ueberhaupt gedanklich ans Licht gebracht und nicht Jen-Hsun oder Lisa) und sich alles dann hoffentlich ausgeglichener hinsichtlich Marktanteilen und mit guter Leistung fuer das Geld der Konsumenten laengerfristig entwickelt.
Das ganze kann sich AMD/RTG m.E. nur noch selber vermasseln (dass sie das vorzueglich koennen bzw. sich unter Wert verkaufen, trotz guter Produkte, haben sie in der Vergangenheit ja leider schon oft genug bewiesen).
Lang lang ist's her, seitdem ich eine AMD CPU und eine ATI (im Prinzip auch AMD/RTG) GPU im gleichen Rechner gehabt habe.
Hoffentlich macht RDNA2 es moeglich, egal ob es nur eine RX 6800 XT mit 12 GB oder eine RX 6900 mit 16GB werden wird (womoeglich, werde ich da auch erstmalig unvernuenftig werden und zum beschnittenen Grosschip greifen, wenn die Preise nicht zu sehr aus dem Rahmen fallen sollten und Verfuegbarkeit macht mir fuer kommenden Sommer eigentlich weniger Sorgen), dass es wieder dauz kommt (um die Leistung von Zen3 Vermeer mache ich mir da weniger Gedanken, zumal die AM4 Plattform mittlerweile gut gereift ist).
Es ist schon irgendwie paradox, dass neue AMD Prozessoren im Nachinein die GPUs der Konkurrenz (RTX Ampere) besser aussehen lassen duerften (zumindest in Full HD und WQHD Aufloesungen) bevor die eigenen Grafikkarten ueberhaupt an den Start gehen werden, aber ich hoffe die Kundschaft ist dennoch klug genug bis zum Erscheinen von RDNA2 zu warten und erst dann zu entscheiden, welche Grafikkarte es denn werden soll.
Wieso sollte man Kompromisse eingehen wollen, wenn die Konkurrenz die kompromisslose Lösung mit 12GB
zu einem besseren Preis, ähnlicher Effizienz, Performance etc. liefern wird?
Ich gehe keine Kompromisse ein. Ich verzichte nicht auf DLSS, nicht auf CUDA, nicht auf (aus persönlicher Erfahrung) grundsolide Treiber die mich persönlich nie im Stich gelassen haben. 0 Kompromisse.
ArrakisSand schrieb:
Aber gerade in Anbetracht der kommenden Konsolen: "Stichwort PS5 (16GB Total) / XBOX Series X 16GB (10GB VRAM)", wird die gemeinsame Ausgangsbasis mal eben verdoppelt.
Gerade wenn man sieht das es die Spiele die mehr als 8GB benötigen bereits heute schon gibt, ist die mangelnden Speicherausstattung der 3070 eigentlich nicht zu tolerieren.
Na ja, bisschen was kann man schon ableiten. 4GB reichen auch heute noch, um in 1080p bei Konsolensettings (oder besser) sämtliche Triple-A Titel zu zocken.
Da 4GB die hälfte der 8GB der aktuellen Konsolen sind, dürften 8GB VRAM bei der 16GB RAM Ausstattung der next-gen Konsolen wohl genauso gut/schlecht ausreichen, je nachdem wie mans nimmt.
Wobei man trotzdem sagen muss: Lässt man diese 50% Regel als Maßstab gelten, dann stehen wir mit 8-10 GB eh schon deutlich besser da, als 2013. Denn damals hatten die GPUs üblicherweise 2-3 GB VRAM. Also weniger als 50% dessen, was die Konsolen hatten.
Von daher steht man mit 8GB VRAM heute im Verhältnis besser da, als 2013 mit 2-3 GB VRAM... Wobei selbst die 3GB VRAM einer HD7970 eigentlich nie ein Problem für die Karte und deren Möglichkeiten waren..
Zudem haben wir diesmal auch nen gewissen Split bei den Auflösungen. Viele RTX3070 Kunden werden wohl in 1440p spielen, während die Konsolen mit ihrem VRAM Budget direkt 4K adressieren müssen. Das lässt die VRAM Ausstattung von 8GB einer 3070 im Verhältnis nochmals besser dastehen, wenn eben die 8GB nur für 1440p reichen müssen und nicht für 4K.
Der Punkt ist nunmal, dass die Diskrepanz zwischen Konsolen RAM und VRAM Ausstattung von GPUs 2013 schonmal deutlich größer war als heute. Und damals wurden teilweise 2GB Karten wie die HD7850 empfohlen, um am PC die next-gen Games mit gutem P/L Verhältnis zu zocken. Das war gerade mal ein Viertel des Konsolenrams und keinen hats gejuckt. Heute wird dagegen wegen den 8GB der 3070 vs 16 GB in Konsolen so eine Panik geschoben von wegen dass die Karte den künftigen Anforderungen nicht gewachsen sei. Sorry Leute, aber das passt einfach nicht.
Ich weiß, ich hör mich an, als würde ich auf biegen und brechen die VRAM Ausstattung von Ampere verteidigen. Trotzdem stimme ich zu, dass mehr besser ist und nvidia mehr verbauen hätte sollen, da es 8GB einfach schon viel zu lange gibt...
Dennoch ist die Hysterie in meinen Augen unbegründet. Mein Kommentar verdeutlicht das hoffentlich ein wenig...
Seis drum- Ampere bietet viel Potenzial, welches derzeit nicht ausgeschöpft wird. Deshalb sehe ich in der Karte keinen Fail.
Die beste Hardware und die beste Technik nutzt halt nichts, wenn man sie nicht durch optimierte Software zu Höchstleistungen trimmt.
Da haben wir doch das Problem. Den gleichen Satz hast du schon bei Turing immer wieder gebracht. Und wo hat Turing, deiner Ansicht nach, jemals sein "Potenzial" zeigen können?
Natürlich in Titeln, die auf RTRT bauen, oder DLSS2.x nutzen oder sonst überdurchschnittlich performen, Pascal jedoch abfällt.
Nehmen wir doch mal einen aktuellen...
z.B.
Da dann einfach nochmal die im schlechtesten Falle anfallenden 30% für DLSS im Quality Mode drauf und schon sieht man, wo Turing sein Potenzial zeigt. Da schnupft dann eine 2060 den vorhergehenden Klassenprimus...
Da haben wir doch das Problem. Den gleichen Satz hast du schon bei Turing immer wieder gebracht. Und wo hat Turing, deiner Ansicht nach, jemals sein "Potenzial" zeigen können?
Der Beitrag ist doch als Scherz gemeint? Turing bietet durch die Tensor Cores und DLSS 50% mehr Performance und ist gerade für Langzeitnutzer eine Generation die sehr lange halten wird, sofern es das Spiel unterstützt, was immer mehr werden.
Zusätzlich ist Turing sehr gut für die Zukunft gerüstet, auch was Directx12 Ultimate angeht.
Ich glaube kaum eine Generation wird so langlebig wie Turing sein, eventuell GCN.
Ich weiß, ich hör mich an, als würde ich auf biegen und brechen die VRAM Ausstattung von Ampere verteidigen. Trotzdem stimme ich zu, dass mehr besser ist und nvidia mehr verbauen hätte sollen, da es 8GB einfach schon viel zu lange gibt...
Dennoch ist die Hysterie in meinen Augen unbegründet. Mein Kommentar verdeutlicht das hoffentlich ein wenig...
Naja, dein Kommentar verdeutlicht dass du den VRAM Bedarf am PC sehr eng mit dem vorhandenen VRAM der Konsolen verknüpfst.
Meinst du denn die Spieleentwickler verzichten auf 60% des PC-Marktes indem sie 8GB VRAM als Minimum ansetzen? Oder sogar 10 GB?
Oder alternativ, dass diese 60% der Leute loslaufen und sich alle neue Grafikkarten holen?
Oder glaubst du etwa, dass jedes einzelne Konsolenspiel den verfügbaren VRAM der Konsole voll ausnutzt? Ich meine nicht belegt, sondern wirklich ausnutzt.
Die Begründung warum nVidia mehr VRAM verbauen sollte finde ich auch putzig. "da es 8GB einfach schon viel zu lange gibt" . Der Bedarf an Speicher skaliert nicht linear mit der Zeit die vorwärts schreitet, sondern mit den Anforderungen der Benutzer was einerseits Texturqualität angeht und andererseits der grafischen Opulenz (Effekte) die man einschalten will. Und neuerdings dürfte auch VR ein Faktor sein.
Ich sagte es ja bereits: Es gibt ein großes Missverständnis in der Sache wie VRAM funktioniert und was ihn z.B. von normalem Arbeitsspeicher unterscheidet. Aber ich will darüber auch nichts weiter erzählen, da es eh nicht auf fruchtbaren Boden fällt. Es gibt dazu aber ganz gute Artikel hier von HisN.
Wer mehr kaufen will der soll das tun. Nur leider hört man dann in ein paar Jahren wieder das Gemecker dass Spielehersteller die Ressourcen ja nicht richtig nutzen und alles doof ist usw. und dass man sich nächstes Mal ne Konsole kauft.
Gab ja auch Leute die einen Ryzen 1xxx mit 8 Kernen und 16 Threads gekauft haben, weil das ja aufgrund der Konsolen bald Pflicht wird. Diese Leute warten heute noch drauf und mittlerweile haben sie keinen 1xxx Prozessor mehr, sondern einen 3xxx. Insofern hat sich die Anschaffung damals ja voll gelohnt
Was mich an der Speicherausstattung der 3070 viel mehr stört als die Menge des VRAMs ist eher die Bandbreite und der damit verbundene Datendurchsatz. Da muss man (ich) bei den Tests ganz genau hinschauen bevor ich eine Bestellung aufgebe.