Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen
- Ersteller Jan
- Erstellt am
- Zur News: Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen
Edit:
Recharging schrieb:Tja, bei aller Liebe zur Leistung der Ingenieure, das Marketing hat die Nase viel zu voll genommen ... 🙃
flug_rosetto
Lieutenant
- Registriert
- Sep. 2012
- Beiträge
- 685
ich lach mich nicht nur nen wolf sondern gleich ein ganzes rudel. wers glaubt wird sehlig.
Mal einen Blick auf 3Dcenter.org geworfen, wo die schön zig Benchmarks akkumulieren, damit ein ausgeglichener Wert für die Leistungsbewertung herauskommt und da steht folgendes:
Wie realistisch erscheint dann, dass die 3070 die 2080 Ti überflügelt? Vielleicht @ 1080p, aber kaum @ 4K...
F
foo_1337
Gast
Wieso sollte die 3070 die 2080ti in 1080p schlagen, aber nicht in 4k? Oder andersrum: Warum sollte die 2080ti die 3070 in 4k schlagen, aber nicht in 1080p?
Von der CPU Problematik in 1080p mal abgesehen..
Von der CPU Problematik in 1080p mal abgesehen..
Zuletzt bearbeitet von einem Moderator:
JahJah192
Lt. Commander
- Registriert
- März 2020
- Beiträge
- 1.250
.Sentinel. schrieb:Du vergleichst die Komplexität eines Brötchens mit einem Chip, der 28 Milliarden funktionierenden Minischaltungen auf seinem Chip unterbringt, mit Softwarepaketen, die ein halbes Gigabyte auf die Waage bringen und auf tausenden von unterschiedlichen Konfigurationen laufen muss?
und du hast´s scheinbar nicht verstanden, dass es einfach um die Aussage Qualität geht nicht um Brötchen vs Chip
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.631
Da hast Du Deine 3090 OC gegen eine 2080 TI OC RTX off. Sogar belastbar aus diesem Forum hier:Laphonso schrieb:Zahlen lügen nicht, und wir hatten hier eine einkassierte 3090 in RTX off, 2 fps hinter einer 2080Ti.
https://www.3dmark.com/3dm/50370626
https://www.3dmark.com/spy/14315700
Ergibt für mich OC vs OC von knapp 30% (beide unter Luft)
Die 2080FE hatte gegen die 2080TI auch nur knapp 30% Differenz.
Es ist also letztenendes alles beim Alten geblieben, nur dass man halt jetzt die 12GB mehr und durch GDDR6X sehr teuren (sowohl Verbrauch als auch monetär) VRAM auf der 3090 bezahlt.
Den Unterschied holst Du aber beim besten Willen nicht mit noch mehr Takt nicht aus der 2080 TI. Das ist schlichtweg unglaubwürdig.
Dennoch- Du siehst Ampere aus mehreren Gründen kritisch:
1.Übertriebenes Marketing
2.Schlechte Verfügbarkeit
3.Hoher Stromverbrauch
Nachvollziehbare Gründe. Nur frage ich, warum das jetzt im speziellen bei Ampere auf einmal die große Welle auslöst, wenn man die letztjährigen Launches unserer üblichen Verdächtigen so betrachtet.
Das soll keine Entschuldigung für irgendetwas sein, jedoch solltest gerade Du alter Hase da eigentlich ein wenig "lockerer" bzw. eher in Erwartung dieser Umstände sein.
Das Spielchen machen wir doch inzwischen zu lange mit, als dass uns das noch überraschen könnte, oder?
Jetzt warten wir mal den nvidia- Killer ab, der günstiger mit mehr VRAM und niedrigerem Stromverbrauch die nun erschienenen Karten vom Parkett fegt und dann sehen wir weiter
Zuletzt bearbeitet:
Vielleicht war mein Post ein Schnellschuss, aber hat die 2080 Ti nicht mehr Bandbreite + Shader, die in 4K zum Tragen kommen würden vs. 3070?
Turing TU102, 68 SM @ 352 Bit
Ampere GA104, 46 SM @ 256 Bit
OK, die 3080 hat auch eine kleinere Speicheranbindung als die 2080 Ti und ist trotzdem schleller, aber dafür hat sie die identische Anzahl an Shader-Clustern. Die 3070 hat deutlich weniger als die 2080 Ti.
Turing TU102, 68 SM @ 352 Bit
Ampere GA104, 46 SM @ 256 Bit
OK, die 3080 hat auch eine kleinere Speicheranbindung als die 2080 Ti und ist trotzdem schleller, aber dafür hat sie die identische Anzahl an Shader-Clustern. Die 3070 hat deutlich weniger als die 2080 Ti.
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.631
Wenn Igor sowas schreiben würde, aufgrund dessen, dass er die Platinen bis auf den letzten Widerstand auseinandergenommen hat, könnte ich so eine Aussage vielleicht für voll nehmen.JahJah192 schrieb:und du hast´s scheinbar nicht verstanden, dass es einfach um die Aussage Qualität geht nicht um Brötchen vs Chip
Bei Dir bleibt es leider eine einfache Meinung/Behauptung. Die sei Dir gegönnt, jedoch ist es problematisch mit so einer dünnen Argumentationsdecke da irgendein allgemeingültiges Ding draus machen zu wollen.
Die Karten kommen nach der Qualitätskontrolle gemäß der Spezifikationen auf den Markt. Danach wird Bugfixing bzw. das Optimizing betrieben. Es ist ja nicht so, als dass die Karten kaputt wären. Aber da gibts dann upgrade BIOS Versionen usw. usf.
Die Pflege geht weiter.
Was immer passieren kann und häufig tatsächlich passiert ist, dass die Software einfach nen Bug hat.
Der wird gefixt und Ende. Ansonsten dürftest Du heutzutage kein einziges Spiel mehr kaufen/spielen, wenn Du da die Perfektion als Maßstab ansetzen würdest.
Das auch wieder nicht falsch verstehen. Schön wäre es, wenn auf den Markt ein jeweils perfekt ausgereiftes Produkt geworfen wird.
Würde man diesen Anspruch auf mehreren Ebenen in wirtschaftilich realistischen Rahmenbedingungen weiterstricken, hätten wir eine deutlich niedrigere Innovationsrate und erheblich höhere Preise bei den Produkten.
Und da würden auch wieder alle lauthals aufschreien und schimpfen.
Einen Tod stirbt man immer....
Zuletzt bearbeitet:
F
foo_1337
Gast
Jo, aber die ist auch bei <4k relevant. Ich denke, dass die 2080ti im Schnitt bei Spielen gewinnen wird, egal in welcher Auflösung und die 3070 nur in manchen Spielen leicht schneller sein wird. Da ich voraussichtlich eine 3070 kaufen werde, hoffe ich natürlich, dass ich unrecht habe5hred schrieb:Vielleicht war mein Post ein Schnellschuss, aber hat die 2080 Ti nicht mehr Bandbreite, die in 4K zum Tragen kommen würde vs. 3070?
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.631
PLS delete me
Also, mit den Aussagen der NV-Marketing-Abteilung muss man vorstichtig sein: "1.9x Effizienzsteigerung" ist noch vielen im Kopf hängen geblieben. Und es passiert schnell, dass man so eine Aussage gleichsetzt mit 1.9x Mehrleistung pro Watt unter den Gegebenheiten, wie man eben gerne zocken würde: 1440p @ high/ultra settings oder 4K @ whatever geht settings. Daher Tests abwarten und alle Marketing-Aussagen mit "dubios" taggen.
D
DeltaPee
Gast
Rodger schrieb:Da war kaum interessantes dabei...alles wo Leute draufschauen verliert die 3070.
Blender war klar...und etwas mehr RTX.....sonst nix.
Für mich also klar: Erneut hat Nvidia das Maul viel zu voll genommen...."die 3070 ist schneller als eine 2080ti".
Aktuelle Spiele, die man irgendwo anders gebenched sieht...Fehlanzeige.
Auch wenn sie den Mund zu voll genommen haben, fast 2080ti Leistung (zwischen 2080super und ti) für 499 ist schon ganz ok. Bis auf die Vram Sache, nur deswegen fühlt sich das nicht nach Forschritt an.
Ich würde trotzdem jedem raten ne gebrauchte ti für 500-600 euro zu holen, bevor er zu einer 3070 greift...
K
KlaraElfer
Gast
Laphonso schrieb:Ohne DLSS, 79 zu 77. Und ohne Stickstoff
Mittlerweile wird deine außenseiter Meinung, man könne Turing mit extrem OC auf Ampere Leistung bringen, zum running Gag.^^
BxBender schrieb:Alle wissen, dass es der katastrophale technische Zustand der Ampere-Generation ist, der als gefühlt ungetesteter Bullshit auf die Gamergemeinschaft losgelassen worden ist.
Verstehe nicht, wem mit solchen extremen Agitationen geholfen ist.
Es gab ein Arbitrator Problem, welches zu hohe Lastspitzen und Taktraten zuließ, was durch einen Treiber korrigiert wurde und nun alles in Ordnung ist.
Beide Hersteller bekleckern sich mit ihren Treibern nicht immer mit Ruhm. Aber es gab eigentlich außer vielleicht anhaltenden Blackscreens bei Navi (welche mittlerweile im Griff sind) eigentlich nie ein wirklich schlimmes Problem was nicht innerhalb eines angemessenen Zeitraumes gefixed wurde.
Zuletzt bearbeitet von einem Moderator:
"3080 twice as fast like the 2080" 3070 faster than a 2080 Ti"
zuerst releasen wir die 3080, diese wird uns aus der hand gerissen
danach wenn sie nicht mehr zu haben sind kaufen die irren selbst die 3090,
wir halten dies auch bei nichtverfügbarkeit der 3090 aufrecht, und werfen stückweise weitere 3090 in die läden welche danach auch sofort gekauft werden
update: anfang oktober
unser plan geht bestens auf, jeder reisst uns die 3090 und 3080 aus den händen
es darf aber keine 3080 /3090 käufer geben welche auf die 3070 umsteigen
also müssen wir die 3070 verschieben, und bevor AMD seine karten released und uns käufer flöten gehen
werden wir alle karten ausreichend ausliefern lassen
lederjacke ende
zuerst releasen wir die 3080, diese wird uns aus der hand gerissen
danach wenn sie nicht mehr zu haben sind kaufen die irren selbst die 3090,
wir halten dies auch bei nichtverfügbarkeit der 3090 aufrecht, und werfen stückweise weitere 3090 in die läden welche danach auch sofort gekauft werden
update: anfang oktober
unser plan geht bestens auf, jeder reisst uns die 3090 und 3080 aus den händen
es darf aber keine 3080 /3090 käufer geben welche auf die 3070 umsteigen
also müssen wir die 3070 verschieben, und bevor AMD seine karten released und uns käufer flöten gehen
werden wir alle karten ausreichend ausliefern lassen
lederjacke ende
Zuletzt bearbeitet:
DDM_Reaper20
Lieutenant
- Registriert
- Feb. 2007
- Beiträge
- 1.004
JahJah192 schrieb:und du hast´s scheinbar nicht verstanden, dass es einfach um die Aussage Qualität geht nicht um Brötchen vs Chip
Mit dem kleinen Unterschied, dass Löcher im Brötchen (oder auch im Brot) als Betrug wahrgenommen wurden. Da diese außerdem keine Luxusartikel waren, sondern schlicht (über)lebensnotwendig (im Mittelalter war Brot ein Grundnahrungsmittel, DAS Grundnahrungsmittel), wurde man entsprechend rabiat, wenn ein Bäcker solchen Mangel an Sorgfalt an den Tag legte (oder einfach beschiss, was schon mal vorkam; ein Loch im Brot ermöglichte immerhin, weniger Teig zu verwenden. Kleinvieh macht ja auch Mist).
nVidia hat nicht arglistig getäuscht, keinen Betrug begangen, und unsere Lebensgrundlage wird davon auch nicht angegriffen; außerdem ist die Frage der Qualität mit der Frage der Komplexität verwoben. Je komplexer etwas wird, desto fehleranfälliger wird es.
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.533
Das war nie der Punkt, das "meinte" ich auch nie. Ist nicht mal zitierfähig, sondern entspringt Deiner kognitiven Dissonanz, das erleben wir ja seit Wochen hier in Deinen Beiträgen.KlaraElfer schrieb:Mittlerweile wird deine außenseiter Meinung, man könne Turing mit extrem OC auf Ampere Leistung bringen, zum running Gag.^^
Ich finde es nur amüsant, wie die 1500+ Euro BFG Meme GPU in RDR2 4K Ultra nicht mal mehr mit dem Fernglas ein dreistelliges alias 100+ fps Ufer sieht und U60 fps dips hat.
Sie ist dafür das: zu langsam, der Realitätscheck hier hilft.
Dass Du von der 3080 auf die 3090 selbst umgestiegen bist, ist doch das Outing: Das FLaggschiff hat einen soliden Generationssprung, ist aber langsamer als erhofft. Und für ~ 15% mehr kauft man nominell eine zweite 3080.
Die 3090 soll mit dem "8K Gaming" Quatsch positioniert werden in Dimensionen, deren Stockwerke sie nicht mal mit dem Fahrstuhl sieht.
Nvidias mehrfacher Marketing Slogan Unsinn wurde längst entzaubert, der biggest generational leap ist eine Farce, und Ampere ist zu langsam, um 4K Monitore maximal fluten zu können.
Ich werde mir die 3090 auch zulegen, aber ich muss sie mir nicht schöner reden als sie ist. Ihr fehlen locker 20% Performance, um den Preis und die Leistung in ein nettes Bild zu setzen
Schöner denn je sieht dagegen nur die 2080Ti aus, dank Ampere, und das sollte a priori niemals möglich sein, und wir können die Realsatire angeblicher 70% Sprünge plonken.
Und was Nvidias "Flaggschiff" wirklich kann, werden wir feststellen, sobald AMD mit RDNA 2 kontert. 😏
Mit der 2080Ti , dem Turing Flaggschiff, konnte ich noch mit über 25% fps Vorsprung winken.
Freue mich schon auf die Ernüchterung, wie die 3080 dann gegen AMDs Top GPU aussieht.
Aber KlaraElfer, die 3080 wird dominieren, oder? Denn sie ist ja das Ampere Flaggschiff
(das Du am Hafen verlassen hast, da zu langsam, nicht wahr? ^^)
Wer nicht bekloppter Enthusiast ich, wie ich, kann das gerne alles anders sehen.
Aber weit über 1500 Euro ausgeben zu müssen, damit ich dann mal mehr als 30 fps auf meine 2080Ti erhalte ist schon...ernüchternd.
Zuletzt bearbeitet:
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
Nvidia hat doch offensichtlich 2GB bei der 3080 kastriert und dabei das Interface reduziert. Sieht man doch wunderbar am Vollausbau 3090 der 2x 12GB hat.foo_1337 schrieb:Weil 12GB mit einem 320bit Memory Bus (3080) nicht gehen und 10GB nicht mit 256 Bit (3070).
Alles Kalkül, klar sie sparen wohl 5 bis 10 Euro pro 3080 indem sie eine 10gb und nicht 12gb Version gebaut haben. Allerdings rechnet nvidia natürlich damit, dass die Leute mit ner 10GB Vram Karte eher upgraden müssen wenn sie in 4k alles auf Max stellen wollen und sichert sich so schonmal Käufer ihrer 4080.
Eigentlich recht clever aber natürlich auch durchtrieben.
Hier übrigens was lustiges, diese Werbung zeigt mir youtube an weil ich mir in letzter Zeit einiges zu Grafikkarten angeschaut habe
Rodger
Commodore
- Registriert
- Aug. 2001
- Beiträge
- 4.288
WAS GENAU ist an der Aussage " kaum interessantes dabei " so unklar, das es zu DIESEM Posting kommt ???pipip schrieb:Rodger
Achso ? Sind Titel wie Control, Borderlands3 ect nicht gerade jene Titel die auf Ampere gut laufen ?
Dass das keine Aussage hat, würde ich jetzt nicht behaupten.
Ergänzung ()
Laphonso....was dich so extrem angreifbar macht ist dein unangebrachtes Festhalten an der 2080ti.
Eine 500€ Karte wird einer 1200€ Karte gefährlich und das ohne 350W fressen zu müssen.
Das alleine entzaubert alles was du zur glorifizierung einer 2080ti erzählt hast und je erzählen wirst.
Dein Statement: "Zahlen lügen nicht".
Die 3090 ist gegenüber der 3080 eine herbe Enttäuschung und sollte besser 900-1000€ kosten als 1500€.
So ist das eigentlich ein Ladenhüter, aber Nvidia weis ja, wie viele Leute da draußen wegen Corona ihr Geld sparen mussten und das nun bereitwillig für ein überteuertes Produkt wie eine 2080ti oder 3090 ausgeben werden.
Nach meiner Wahrnehmung ist eine 3080 auch keine 30% schneller als eine 2080ti.
NICHT VERGESSEN Leute....die Karten müssen in Spielen erst mal 100% stabil werden....mal sehen wie schnell die dann noch sind.
Es braucht neue Benchmark-Serien nach diesem extremen Treiber-Update.
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.420
Rodger
Genau jene Games hat NV schon bei der 3080 präsentiert und das aus guten Grund.
Weiteres verbraucht die 2080TI keine 350 Watt. Die TDP zwischen 3070 und 2080 sind sogar ähnlich. Klar Eigentlichen Verbrauch werden wir dann im Test sehen.
https://www.computerbase.de/2020-09...nitt_leistungsaufnahme_desktop_youtube_spiele
Und wenn du die OC nimmst, sprechen wir schon von einer anderen Performance.
https://www.computerbase.de/forum/help/terms/
Genau jene Games hat NV schon bei der 3080 präsentiert und das aus guten Grund.
Weiteres verbraucht die 2080TI keine 350 Watt. Die TDP zwischen 3070 und 2080 sind sogar ähnlich. Klar Eigentlichen Verbrauch werden wir dann im Test sehen.
https://www.computerbase.de/2020-09...nitt_leistungsaufnahme_desktop_youtube_spiele
Und wenn du die OC nimmst, sprechen wir schon von einer anderen Performance.
https://www.computerbase.de/forum/help/terms/
Verhaltensregeln
Diskussionen werden mit Argumenten geführt, nicht mit Meinungen. Diese Argumente werden fair und sachlich vorgetragen und auf ebensolche Weise attackiert und verteidigt. Nicht erwünscht sind unter anderem:
- Durchgängiges Schreiben in GROSSBUCHSTABEN.
- Gebrauch multipler Satzendzeichen!!!
Ähnliche Themen
- Antworten
- 290
- Aufrufe
- 48.604
- Antworten
- 43
- Aufrufe
- 8.699
- Antworten
- 54
- Aufrufe
- 10.908
- Antworten
- 464
- Aufrufe
- 83.952
- Antworten
- 345
- Aufrufe
- 63.747