News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen

Rodger
Achso ? Sind Titel wie Control, Borderlands3 ect nicht gerade jene Titel die auf Ampere gut laufen ?
Dass das keine Aussage hat, würde ich jetzt nicht behaupten.
 
Wieso sollte die 3070 die 2080ti in 1080p schlagen, aber nicht in 4k? Oder andersrum: Warum sollte die 2080ti die 3070 in 4k schlagen, aber nicht in 1080p? ;)
Von der CPU Problematik in 1080p mal abgesehen..
 
Zuletzt bearbeitet von einem Moderator:
.Sentinel. schrieb:
Du vergleichst die Komplexität eines Brötchens mit einem Chip, der 28 Milliarden funktionierenden Minischaltungen auf seinem Chip unterbringt, mit Softwarepaketen, die ein halbes Gigabyte auf die Waage bringen und auf tausenden von unterschiedlichen Konfigurationen laufen muss?

und du hast´s scheinbar nicht verstanden, dass es einfach um die Aussage Qualität geht nicht um Brötchen vs Chip ;)
 
Laphonso schrieb:
Zahlen lügen nicht, und wir hatten hier eine einkassierte 3090 in RTX off, 2 fps hinter einer 2080Ti.
Da hast Du Deine 3090 OC gegen eine 2080 TI OC RTX off. Sogar belastbar aus diesem Forum hier:

https://www.3dmark.com/3dm/50370626
https://www.3dmark.com/spy/14315700
Ergibt für mich OC vs OC von knapp 30% (beide unter Luft)
Die 2080FE hatte gegen die 2080TI auch nur knapp 30% Differenz.

Es ist also letztenendes alles beim Alten geblieben, nur dass man halt jetzt die 12GB mehr und durch GDDR6X sehr teuren (sowohl Verbrauch als auch monetär) VRAM auf der 3090 bezahlt.

Den Unterschied holst Du aber beim besten Willen nicht mit noch mehr Takt nicht aus der 2080 TI. Das ist schlichtweg unglaubwürdig.

Dennoch- Du siehst Ampere aus mehreren Gründen kritisch:
1.Übertriebenes Marketing
2.Schlechte Verfügbarkeit
3.Hoher Stromverbrauch

Nachvollziehbare Gründe. Nur frage ich, warum das jetzt im speziellen bei Ampere auf einmal die große Welle auslöst, wenn man die letztjährigen Launches unserer üblichen Verdächtigen so betrachtet.

Das soll keine Entschuldigung für irgendetwas sein, jedoch solltest gerade Du alter Hase da eigentlich ein wenig "lockerer" bzw. eher in Erwartung dieser Umstände sein.
Das Spielchen machen wir doch inzwischen zu lange mit, als dass uns das noch überraschen könnte, oder?

Jetzt warten wir mal den nvidia- Killer ab, der günstiger mit mehr VRAM und niedrigerem Stromverbrauch die nun erschienenen Karten vom Parkett fegt und dann sehen wir weiter ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, KlaraElfer und DeltaPee
Vielleicht war mein Post ein Schnellschuss, aber hat die 2080 Ti nicht mehr Bandbreite + Shader, die in 4K zum Tragen kommen würden vs. 3070?

Turing TU102, 68 SM @ 352 Bit
Ampere GA104, 46 SM @ 256 Bit

OK, die 3080 hat auch eine kleinere Speicheranbindung als die 2080 Ti und ist trotzdem schleller, aber dafür hat sie die identische Anzahl an Shader-Clustern. Die 3070 hat deutlich weniger als die 2080 Ti.
 
Zuletzt bearbeitet:
JahJah192 schrieb:
und du hast´s scheinbar nicht verstanden, dass es einfach um die Aussage Qualität geht nicht um Brötchen vs Chip ;)
Wenn Igor sowas schreiben würde, aufgrund dessen, dass er die Platinen bis auf den letzten Widerstand auseinandergenommen hat, könnte ich so eine Aussage vielleicht für voll nehmen.

Bei Dir bleibt es leider eine einfache Meinung/Behauptung. Die sei Dir gegönnt, jedoch ist es problematisch mit so einer dünnen Argumentationsdecke da irgendein allgemeingültiges Ding draus machen zu wollen.

Die Karten kommen nach der Qualitätskontrolle gemäß der Spezifikationen auf den Markt. Danach wird Bugfixing bzw. das Optimizing betrieben. Es ist ja nicht so, als dass die Karten kaputt wären. Aber da gibts dann upgrade BIOS Versionen usw. usf.
Die Pflege geht weiter.

Was immer passieren kann und häufig tatsächlich passiert ist, dass die Software einfach nen Bug hat.
Der wird gefixt und Ende. Ansonsten dürftest Du heutzutage kein einziges Spiel mehr kaufen/spielen, wenn Du da die Perfektion als Maßstab ansetzen würdest.

Das auch wieder nicht falsch verstehen. Schön wäre es, wenn auf den Markt ein jeweils perfekt ausgereiftes Produkt geworfen wird.
Würde man diesen Anspruch auf mehreren Ebenen in wirtschaftilich realistischen Rahmenbedingungen weiterstricken, hätten wir eine deutlich niedrigere Innovationsrate und erheblich höhere Preise bei den Produkten.
Und da würden auch wieder alle lauthals aufschreien und schimpfen.

Einen Tod stirbt man immer....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
5hred schrieb:
Vielleicht war mein Post ein Schnellschuss, aber hat die 2080 Ti nicht mehr Bandbreite, die in 4K zum Tragen kommen würde vs. 3070?
Jo, aber die ist auch bei <4k relevant. Ich denke, dass die 2080ti im Schnitt bei Spielen gewinnen wird, egal in welcher Auflösung und die 3070 nur in manchen Spielen leicht schneller sein wird. Da ich voraussichtlich eine 3070 kaufen werde, hoffe ich natürlich, dass ich unrecht habe ;)
 
Also, mit den Aussagen der NV-Marketing-Abteilung muss man vorstichtig sein: "1.9x Effizienzsteigerung" ist noch vielen im Kopf hängen geblieben. Und es passiert schnell, dass man so eine Aussage gleichsetzt mit 1.9x Mehrleistung pro Watt unter den Gegebenheiten, wie man eben gerne zocken würde: 1440p @ high/ultra settings oder 4K @ whatever geht settings. Daher Tests abwarten und alle Marketing-Aussagen mit "dubios" taggen.
 
Rodger schrieb:
Da war kaum interessantes dabei...alles wo Leute draufschauen verliert die 3070.
Blender war klar...und etwas mehr RTX.....sonst nix.

Für mich also klar: Erneut hat Nvidia das Maul viel zu voll genommen...."die 3070 ist schneller als eine 2080ti".

Aktuelle Spiele, die man irgendwo anders gebenched sieht...Fehlanzeige.

Auch wenn sie den Mund zu voll genommen haben, fast 2080ti Leistung (zwischen 2080super und ti) für 499 ist schon ganz ok. Bis auf die Vram Sache, nur deswegen fühlt sich das nicht nach Forschritt an.
Ich würde trotzdem jedem raten ne gebrauchte ti für 500-600 euro zu holen, bevor er zu einer 3070 greift...
 
  • Gefällt mir
Reaktionen: foo_1337
Laphonso schrieb:
Ohne DLSS, 79 zu 77. Und ohne Stickstoff ;)

Mittlerweile wird deine außenseiter Meinung, man könne Turing mit extrem OC auf Ampere Leistung bringen, zum running Gag.^^

BxBender schrieb:
Alle wissen, dass es der katastrophale technische Zustand der Ampere-Generation ist, der als gefühlt ungetesteter Bullshit auf die Gamergemeinschaft losgelassen worden ist.

Verstehe nicht, wem mit solchen extremen Agitationen geholfen ist.
Es gab ein Arbitrator Problem, welches zu hohe Lastspitzen und Taktraten zuließ, was durch einen Treiber korrigiert wurde und nun alles in Ordnung ist.

Beide Hersteller bekleckern sich mit ihren Treibern nicht immer mit Ruhm. Aber es gab eigentlich außer vielleicht anhaltenden Blackscreens bei Navi (welche mittlerweile im Griff sind) eigentlich nie ein wirklich schlimmes Problem was nicht innerhalb eines angemessenen Zeitraumes gefixed wurde.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: foo_1337
"3080 twice as fast like the 2080" 3070 faster than a 2080 Ti"

zuerst releasen wir die 3080, diese wird uns aus der hand gerissen

danach wenn sie nicht mehr zu haben sind kaufen die irren selbst die 3090,
wir halten dies auch bei nichtverfügbarkeit der 3090 aufrecht, und werfen stückweise weitere 3090 in die läden welche danach auch sofort gekauft werden

update: anfang oktober
unser plan geht bestens auf, jeder reisst uns die 3090 und 3080 aus den händen
es darf aber keine 3080 /3090 käufer geben welche auf die 3070 umsteigen

also müssen wir die 3070 verschieben, und bevor AMD seine karten released und uns käufer flöten gehen
werden wir alle karten ausreichend ausliefern lassen

lederjacke ende
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, russianinvasion, Laphonso und eine weitere Person
JahJah192 schrieb:
und du hast´s scheinbar nicht verstanden, dass es einfach um die Aussage Qualität geht nicht um Brötchen vs Chip ;)

Mit dem kleinen Unterschied, dass Löcher im Brötchen (oder auch im Brot) als Betrug wahrgenommen wurden. Da diese außerdem keine Luxusartikel waren, sondern schlicht (über)lebensnotwendig (im Mittelalter war Brot ein Grundnahrungsmittel, DAS Grundnahrungsmittel), wurde man entsprechend rabiat, wenn ein Bäcker solchen Mangel an Sorgfalt an den Tag legte (oder einfach beschiss, was schon mal vorkam; ein Loch im Brot ermöglichte immerhin, weniger Teig zu verwenden. Kleinvieh macht ja auch Mist).

nVidia hat nicht arglistig getäuscht, keinen Betrug begangen, und unsere Lebensgrundlage wird davon auch nicht angegriffen; außerdem ist die Frage der Qualität mit der Frage der Komplexität verwoben. Je komplexer etwas wird, desto fehleranfälliger wird es.
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
KlaraElfer schrieb:
Mittlerweile wird deine außenseiter Meinung, man könne Turing mit extrem OC auf Ampere Leistung bringen, zum running Gag.^^
Das war nie der Punkt, das "meinte" ich auch nie. Ist nicht mal zitierfähig, sondern entspringt Deiner kognitiven Dissonanz, das erleben wir ja seit Wochen hier in Deinen Beiträgen.

Ich finde es nur amüsant, wie die 1500+ Euro BFG Meme GPU in RDR2 4K Ultra nicht mal mehr mit dem Fernglas ein dreistelliges alias 100+ fps Ufer sieht und U60 fps dips hat.
Sie ist dafür das: zu langsam, der Realitätscheck hier hilft.

Dass Du von der 3080 auf die 3090 selbst umgestiegen bist, ist doch das Outing: Das FLaggschiff hat einen soliden Generationssprung, ist aber langsamer als erhofft. Und für ~ 15% mehr kauft man nominell eine zweite 3080.

Die 3090 soll mit dem "8K Gaming" Quatsch positioniert werden in Dimensionen, deren Stockwerke sie nicht mal mit dem Fahrstuhl sieht.

Nvidias mehrfacher Marketing Slogan Unsinn wurde längst entzaubert, der biggest generational leap ist eine Farce, und Ampere ist zu langsam, um 4K Monitore maximal fluten zu können.

Ich werde mir die 3090 auch zulegen, aber ich muss sie mir nicht schöner reden als sie ist. Ihr fehlen locker 20% Performance, um den Preis und die Leistung in ein nettes Bild zu setzen
Schöner denn je sieht dagegen nur die 2080Ti aus, dank Ampere, und das sollte a priori niemals möglich sein, und wir können die Realsatire angeblicher 70% Sprünge plonken.

Und was Nvidias "Flaggschiff" wirklich kann, werden wir feststellen, sobald AMD mit RDNA 2 kontert. 😏

Mit der 2080Ti , dem Turing Flaggschiff, konnte ich noch mit über 25% fps Vorsprung winken.

Freue mich schon auf die Ernüchterung, wie die 3080 dann gegen AMDs Top GPU aussieht.

Aber KlaraElfer, die 3080 wird dominieren, oder? Denn sie ist ja das Ampere Flaggschiff ;)
(das Du am Hafen verlassen hast, da zu langsam, nicht wahr? ^^)

Wer nicht bekloppter Enthusiast ich, wie ich, kann das gerne alles anders sehen.
Aber weit über 1500 Euro ausgeben zu müssen, damit ich dann mal mehr als 30 fps auf meine 2080Ti erhalte ist schon...ernüchternd.
 
Zuletzt bearbeitet:
foo_1337 schrieb:
Weil 12GB mit einem 320bit Memory Bus (3080) nicht gehen und 10GB nicht mit 256 Bit (3070).
Nvidia hat doch offensichtlich 2GB bei der 3080 kastriert und dabei das Interface reduziert. Sieht man doch wunderbar am Vollausbau 3090 der 2x 12GB hat.

Alles Kalkül, klar sie sparen wohl 5 bis 10 Euro pro 3080 indem sie eine 10gb und nicht 12gb Version gebaut haben. Allerdings rechnet nvidia natürlich damit, dass die Leute mit ner 10GB Vram Karte eher upgraden müssen wenn sie in 4k alles auf Max stellen wollen und sichert sich so schonmal Käufer ihrer 4080.

Eigentlich recht clever aber natürlich auch durchtrieben.

Hier übrigens was lustiges, diese Werbung zeigt mir youtube an weil ich mir in letzter Zeit einiges zu Grafikkarten angeschaut habe :lol:
Screenshot_20201003-202625_YouTube Vanced.jpg
 
pipip schrieb:
Rodger
Achso ? Sind Titel wie Control, Borderlands3 ect nicht gerade jene Titel die auf Ampere gut laufen ?
Dass das keine Aussage hat, würde ich jetzt nicht behaupten.
WAS GENAU ist an der Aussage " kaum interessantes dabei " so unklar, das es zu DIESEM Posting kommt ???
Ergänzung ()

Laphonso....was dich so extrem angreifbar macht ist dein unangebrachtes Festhalten an der 2080ti.
Eine 500€ Karte wird einer 1200€ Karte gefährlich und das ohne 350W fressen zu müssen.
Das alleine entzaubert alles was du zur glorifizierung einer 2080ti erzählt hast und je erzählen wirst.
Dein Statement: "Zahlen lügen nicht".

Die 3090 ist gegenüber der 3080 eine herbe Enttäuschung und sollte besser 900-1000€ kosten als 1500€.
So ist das eigentlich ein Ladenhüter, aber Nvidia weis ja, wie viele Leute da draußen wegen Corona ihr Geld sparen mussten und das nun bereitwillig für ein überteuertes Produkt wie eine 2080ti oder 3090 ausgeben werden.

Nach meiner Wahrnehmung ist eine 3080 auch keine 30% schneller als eine 2080ti.
NICHT VERGESSEN Leute....die Karten müssen in Spielen erst mal 100% stabil werden....mal sehen wie schnell die dann noch sind.
Es braucht neue Benchmark-Serien nach diesem extremen Treiber-Update.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hofpils
Rodger
Genau jene Games hat NV schon bei der 3080 präsentiert und das aus guten Grund.
Weiteres verbraucht die 2080TI keine 350 Watt. Die TDP zwischen 3070 und 2080 sind sogar ähnlich. Klar Eigentlichen Verbrauch werden wir dann im Test sehen.

https://www.computerbase.de/2020-09...nitt_leistungsaufnahme_desktop_youtube_spiele
Und wenn du die OC nimmst, sprechen wir schon von einer anderen Performance.

https://www.computerbase.de/forum/help/terms/
Verhaltensregeln
Diskussionen werden mit Argumenten geführt, nicht mit Meinungen. Diese Argumente werden fair und sachlich vorgetragen und auf ebensolche Weise attackiert und verteidigt. Nicht erwünscht sind unter anderem:

  • Durchgängiges Schreiben in GROSSBUCHSTABEN.
  • Gebrauch multipler Satzendzeichen!!!
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben