News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

NikoNet schrieb:
Er ist ein sehr guter Verkäufer.
Er hat es geschafft mit seinem Bla Bla dir zu vermitteln, dass die neue Karte die alte Titan in der Performance schlägt, aber viel weniger kostet.
Nachdenken- Die Titan- Reihe hat genau das, was den Content- Creator-/bzw. professionellen Bereich vorbehalten war: Jede Menge VRAM.

Denn nur mit entsprechendem VRAM kannst Du umfangreiche Szenen sinnvoll bearbeiten.
Die Titan RTX war geradezu spottbillig, wenn man bedenkt, dass sie sich damit im professionellen Markt selbst kannibalisiert hat, zumal für die RTX Karten die professionellen und auf Applikationen zertifizierten Studio- Treiber freigegeben wurden.
Die Leistung im Rendern wurde durch OptiX in vielen Programmen um Faktoren gesteigert.

Du/ihr folgt daraus, dass die Karten viel günstiger sind als die Vorgänger.
Das folgert hier niemand draus, sondern die Folgerung ergibt sich selbst aus den Fakten.

Eigentlich war die Titan aber verdammt teuer bis unverkäuflich (Ladenhütter).
Wir haben die an Content- Creators verkauft wie blöd!

Bitte nicht den fehler begehen, von einer eigenen, diesbezüglich stark eingeschränkten Sichtweise auf das tatsächliche Geschehen zu schließen.

Jetzt bekommst du eine Karte ohne Vollausbau (!) für 1500€.
Ich finde die Preise haben sich nicht wirklich verrringert zu der Vorgänger-Serie.
Das ist SPOTT SPOTT SPOTT billig für eine Karte dieser Leistungsklasse und wird den professionellen bereich KOMPLETT auf den Kopf stellen.
Das Ding wird, wie auch eine 3070 mit 2080TI Leistung für 499,-€ weggehen, wie geschnitten Brot.

Zu angeblichen Benches von irgendjemanden:
Ihr glaubt wohl nicht, dass es vor dem Fall des NDA irgendwelche Benches gibt, die uns die Wahrheit zeigen werden?
Doch- Die Benches die sie zulassen. Die haben sich nicht umsonst eine im Internet renommierte Institution an Bord geholt, die deren Werte unabhängig bestätigt haben.

Alles vor dem Fall des NDA wird von Nvidia's Anwälten unterbunden (offline genommen).
Es sei denn Nvidia will, dass es öffentlich sein soll.
So sieht es aus.

Bitte denkt nach, bevor ihr so schnell Urteilt.
Es hat aber auch keinen Sinn, sich in irgendwelchen Theorien zu verstricken und den Haken zu suchen, wenn die Faktenlage inzwischen relativ offen auf dem Tisch liegt.

Euer Geld wird euch schon aus der Tasche gezogen, wenn nicht von Nvidia dann von den Verkäufern (höhere Marge :-))
Das wäre Diebstahl. Das Geld gibt jeder schon schön freiwillig her, wenn er meint einen guten Kauf damit zu machen.
Entmündigt und bevormundet mal die Konsumenten nicht immer so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, MoinKffee, Nicop und 7 andere
borizb schrieb:
Könnte, wenn, hätte... ist das ein fundierte Argumentation? Die Werte sind relativ, aber deswegen nicht
notwendigerweise falsch (bis anders bewiesen).
Das ist eine vereinfachte Erklärung des Beitrags von mir, den du im ersten Moment nicht verstanden hast und daher von dir mit einer nicht passenden Replik versehen wurde. Um aufzuweisen, wo du mit deiner Replik daneben liegst, habe ich versucht einen möglichst einfachen Fall zu konstruieren, der aufzeigt warum ein relativer Vergleich, lediglich auf Prozentwerten basierend, in meinen Augen keine Relevanz hat und einer "Folie mit Benchmarks aus der Marketingabteilung" gleicht. Entsprechend "könnte, wenn, hätte"->es liegt in der Natur der Sache, dass so ein "konstruierter Fall" vom Konjunktiv lebt.
Und nicht vergessen, in meiner ursprünglichen Kritik geht es lediglich darum, dass "dieser Benchmark Vergleich" nicht viel Aussagekraft hat, da die "Zahlen" zur Zeit nicht ansatzweise verifizierbar sind / durch Benchmarks aus anderen Quellen verifiziert werden können.

borizb schrieb:
Vielleicht ist das Problem die Definition von Benchmark. Wenn man sagt, Benchmark ist nur, was absolute
Zahlen liefert, dann hast du recht. Es ist aber zu keinem Zeitpunkt unüblich gewesen, auch relative Werte
anzugeben. Z.B. Geschäftszahlen wie Umsatzsteigerungen oder Verluste werden z.T. auch mit prozentualen
Werten angegeben
Ja, man verwendet auch relative angaben (um Faktor x oder um y% schneller / langsamer), aber in solch einem "Bericht" liegen auch immer die absoluten Zahlen bei (oder es gibt zumindest eine Quellenangabe dazu). Alles andere ist nicht seriös und hat wieder was von "Werbeveranstaltung der Marketing Abteilung".
 
  • Gefällt mir
Reaktionen: Sennox
P.S.
Was mich noch brennend interessieren würde, ob Hersteller wie BeQuiet! z.B. fürs Straight Power 11 (650w), welches Ja voll modular ist, nicht noch ein neues Kabel anbieten wird, dass direkt vom NT zur Grafikkarte den 12-poligen Stecker bereit stellt?
 
  • Gefällt mir
Reaktionen: T670i
MiaSanMiaaa schrieb:
Die Voodoo² hat 450DM gekostet. 600DM für die mit mehr Speicher. SLI bist du bei 1200DM für damaliges richtiges Highend.
1024 × 768 gab es erst mit zwei Karten. Sonst war man auf 800x600 beschränkt. Theoretisch konnte man die 8MB Karten noch den Texture Speicher erweitern, aber iirc hatte das dann im SLI-Betrieb schon mal Probleme gemacht. Also besser direkt 12MB Karten.
Ergänzung ()

.Sentinel. schrieb:
Wir haben die an Content- Creators verkauft wie blöd!

Bitte nicht den fehler begehen, von einer eigenen, diesbezüglich stark eingeschränkten Sichtweise auf das tatsächliche Geschehen zu schließen.
Und die waren auch die Zielgruppe, Die 3090 scheint aber für Gamer zu sein, würde mich nicht überraschen wenn noch ne Titan nach kommt. Oder eine Quadro in einer "Creators" Edition. Der 3090 scheinen ja wieder die Treiber zu fehlen. So wie der ersten Titan auch. Die Treiber gabs ja damals erst wegen der Vega Karte die Spezielle auf Creator zugeschnitten war und eben die Pro-Treiber dabei hatte.
 
Zuletzt bearbeitet:
@.Sentinel.

Was mich an der Vram-Debatte sowieso stört ist, dass man den Vram erstmal mit der neuen Software sehen muss, um sich ein finales Urteil bilden zu können.

Ebenso finde ich, muss man den Einsatzzweck in Relation setzen. Wenn man sich eine 3080 kauft, um sie in 4K einzusetzen, kann man diese i.d.R. 2 Jahre effektiv nutzen. Alles darüber ist doch gut, wenn sie das aushalten sollte.
Es wird immer wieder Software geben, die Verschwenderisch umgeht, aber man sollte sich nicht immer die Extreme rauspicken.

Anhand der 2080ti sieht man einfach wie schnell Technik altern kann, dass muss man einfach aktzeptieren. Zukunftssicherheit gibt es hier leider nicht.


Ich finde CB müsste darüber wirklich mal einen Artikel bringen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wombatz schrieb:
Verzeihung, wenn ich mir nun nicht 71 Seiten durchlesen kann, aber folgende Fragen hätte ich - obwohl ich mir bewusst bin, dass es mglw. keine Antworten darauf gibt bislang:

1. Mein Mainboard hat definitiv PCIe 3.0 - geht mir dadurch viel Leistung flöten? Oder geht die Karte uU gar nicht, da sie nicht genügend Strom bekommt dadurch?
2. Apropos Strom: Wird theoretisch für ne 3070@stock ein 500W Platinum-Netzteil ausreichen bei nem i7 4790k?
3. Wie schlagen sich die Karten im Video-Encoding?
4. Sind die Karten nicht absolut overpowered, da der Maßstab für die nächsten Jahre einmal mehr die kommende Konsolengeneration sein wird und als Konsequenz so viel TFlops gar nichts bringt?

vielleicht weiß ja wer schon eine Antwort drauf: )

1. Aktuell liegen liegen die Unterschiede zwischen PCIe 3.0 und 4.0 wohl so zwischen 0-5%. Je nach Game und ob der VRam vollläuft oder nicht. Mit der Stromversorgung hat das nichts zu tun.

2. Für ne 3070 und nem 4790k sollten 500W völlig reichen, wenn es nicht gerade ein 20€ Chinaböller ist.

3. Öhm, keine Ahnung

4. Kann man jemals zu viel Rechenpower haben?
 
  • Gefällt mir
Reaktionen: Wombatz
Martinfrost2003 schrieb:
Eine RTX 3080ti mit mehr als 10GB ( tippe auf 16-20GB) wird noch folgen.
Ich tipp auf 20GB und zwar dann wenn die 2GB Chips verfügbar werden. Dann kann man das bisherige PCB weiterverwenden und evtl. noch etwas an der Taktschraube drehen.
 
  • Gefällt mir
Reaktionen: 0-8-15 User, matty2580 und Apocalypse
catch 22 schrieb:
Und nicht vergessen, in meiner ursprünglichen Kritik geht es lediglich darum, dass "dieser Benchmark Vergleich" nicht viel Aussagekraft hat, da die "Zahlen" zur Zeit nicht ansatzweise verifizierbar sind / durch Benchmarks aus anderen Quellen verifiziert werden können.

Aber das sieht doch einfach ziemlich eindeutig aus, oder etwa nicht? Ich verstehe nicht, warum mancher da ein - Man kann keine Information daraus ableiten konstruieren will:

1599050832071.png


1599050970989.png


Eindeutiger gehts nicht. Und das unten ist die Originalgrafik der Messchriebe, wie sie digital foundry immer nutzt.
Das hat ihnen keiner in den Mund gelegt. Beides sind im Übrigen rein rasterbasierte Spiele ohne RT und DLSS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter
Wenn nach Einschätzung von bequiet 550 gerade so passen werden, dann reichen meine 650 dark power wohl locker für die 3080.
 
  • Gefällt mir
Reaktionen: dermatu
Hier vertrauen echt Hardwareveteranen auf Digital Foundry Previews/Reviews von nVidia. Ist doch schon lange bekannt dass die gesponsort sind von nVidia. Sonst wären sie nicht die ersten die "Benchmarks" zu RELATIVER PERFORMANCE veröffentlichen dürfen. Und das auch noch mit V-Sync enabled. Wartet einfach auf unabhängige Reviews von Hardware Unboxed, Gamersnexus, Computerbase und PCGH. Und dann wartet auf AMDs Releases und Reviews und genießt die Preissenkungen der RTX 30-Serie wenn ihr bis dahin nicht sogar von AMD überzeugt seid.
 
  • Gefällt mir
Reaktionen: eXe777, Floppes, Sennox und 3 andere
MiaSanMiaaa schrieb:
Aussagekräftiger und seriöser als irgendeine Marketing-Folie von NVIDIA oder in 2 Monaten die Folien von AMD ist der "Bench" von DF allemal und ein guter Anhaltspunkt wo die Karten stehen.
Der Vergleich von DF sagt lediglich aus, dass diese Ampere Karte um einen gewissen Faktor in diesen Spielen jeweils schneller ist, als eine alte 2080er Karte. Da noch nicht mal die absoluten Werte der 2080er Karte genannt werden, kann man absolut keine Rückschlüsse auf das Testszenario fällen und somit entspricht die Aussagekraft dieses Vergleiches exakt einer Folie aus der Nvidia Marketing Abteilung.
Dabei spielt es keine Rolle wer mit welcher Reputation oder fachlichen Kompetenz den Vergleich erstellt hat.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Sennox
Gibt's schon einen Termin wann Tests kommen ?
 
thepusher90 schrieb:
Und dann wartet auf AMDs Releases und genießt die Preissenkungen der RTX 30-Serie wenn ihr nicht von AMD überzeugt seid.
Da für mich AMD keine Alternative ist es sei den sie schließen endlich mal auf zu Nvidia, wird es wohl für mich darauf hinauslaufen.
 
  • Gefällt mir
Reaktionen: thepusher90
Supermax2004 schrieb:
Es wäre schön, wenn Nvidia oder eben Computerbase etc. was dazu sagen könnten.
....Kein Spiel hatte mit 8gb Nachladeruckler. Jetzt von 11 auf 10 zu gehen hört sich natürlich nicht gut an.
...
Der Speicher der 3000er Karten ist super schnell und es gibt PCIE 4.0. Ich würde also mal davon ausgehen, dass hier 10gb locker ausreichen werden, 2 Jahre mindestens. Aber genau da bräuchte man mal Gedankengänge von NV und Testern, ob das so eingeplant wurde, oder ob man hier verarscht wird und nä. Jahr 10gb Probleme machen werden.

Man sollte noch dazu sagen, das Microsoft erst 2021 das RTX IO unterstützt und man dann ja auch ein Mainboard mit PCIE 4.0 + extrem schnelle SSD braucht etc.
In Summe kommen Da zur Graka noch andere Kosten hinzu. Insofern ist ne "alte"2080Ti gar net so schlecht,
falls preiswert zu bekommen.(funzt halt auch noch mit älterem Board+SSD)

Andererseits wäre natürlich interessant wie stark RTX IO die CPU entlastet.
Gerade weil die NextGen-Konsolen 8c16t haben ist Das für Leute mit nem 6c12t-Prozzi
evtl. hilfreich.(so das in dem Falle ne 3070 besser als ne 2080Ti wäre)...(x)

Und schlußendlich stellt sich die Frage nach dem Hauptspeicher RAM, der evtl. nicht mehr so
stark anwachsen muss, wie in den letzten Jahren.
(wobei mir persönlich die 16GB zuwenig wären, die aber mit RTX IO u.U. reichen)

Net zu vergessen, das auch nur die neuen Games das RTX IO unterstützen werden.
Weiß jetzt net, ob auch ältere Games nen Patch dafür bekommen.(eher net)

(x) edit: Auch die Turing sollen dann DirectStorage können, was z.Bsp. ne 2080s@8GB genauso aufwertet in solchen neuen Games mit RTX IO. Von daher wird der Handel mit jungen Gebrauchten äußerst interessant.
 
Zuletzt bearbeitet:
Hallo Allerseits,
mal was anderes. Es wurde auch darüber gesprochen das bei einer PCI 4.0 Anbindung die Grafikkarte die SSD direkt ansprechen kann. Soll das bedeuten das dadurch der eigentliche VRAM der Grafikkarte nicht mehr so wichtig ist weil die Grafikkarte den Texturspeicher auf die SSD auslagern kann? Oder habe ich das falsch verstanden?
 
frgntz schrieb:
Wenn nach Einschätzung von bequiet 550 gerade so passen werden, dann reichen meine 650 dark power wohl locker für die 3080.
Ja nachdem wie neu die entsprechenden Netzteile sind. Den Verschleiß nicht vergessen.
 
Apocalypse schrieb:
Und die waren auch die Zielgruppe, Die 3090 scheint aber für Gamer zu sein, würde mich nicht überraschen wenn noch ne Titan nach kommt. Oder eine Quadro in einer "Creators" Edition.
Mit der Preissenkung von 2700,-€ auf 1500,-€ macht nvidia folgendes.
Man hängt den normalen Spielern ein Möhrchen hin und schaut ob sie zuschnappen bzw. prüft den Markt ab.
Zweitens wird sich die Karte bei Entwicklern und Firmen, die Inferencing auflösen müssen als No- Brainer platzieren.

Du hast also einen guten Teil vom Semi- Professionellen Bereich erschlagen und deckst zudem noch die Enthusiasten ab. Zu einem Preis, der in diesen Segmenten dann tatsächlich massenmarkttauglich ist und für hohe Umsätze sorgen wird.

Der 3090 scheinen ja wieder die Treiber zu fehlen. So wie der ersten Titan auch. Die Treiber gabs ja damals erst wegen der Vega Karte die Spezielle auf Creator zugeschnitten war und eben die Pro-Treiber dabei hatte.
Das wäre mir neu, dass sie die Studio- Treiber wieder einschränken wollen.... Wo hast Du denn das aufgeschnappt?
Das wäre tatsächlich ein "Downer".
 
Zuletzt bearbeitet:
Dann bin ich mit meinem RM650 Plus Gold von corsair ja Save.

Ich kann mich trotzdem nicht entscheiden.
3070 oder 3080?!

Ist der Unterschied zwischen den beiden Karten sehr groß?
 
thepusher90 schrieb:
Hier vertrauen echt Hardwareveteranen auf Digital Foundry Previews/Reviews von nVidia. Ist doch schon lange bekannt dass die gesponsort sind von nVidia. Sonst wären sie nicht die ersten die "Benchmarks" zu RELATIVER PERFORMANCE veröffentlichen dürfen. Und das auch noch mit V-Sync enabled. Wartet einfach auf unabhängige Reviews von Hardware Unboxed, Gamersnexus, Computerbase und PCGH. Und dann wartet auf AMDs Releases und Reviews und genießt die Preissenkungen der RTX 30-Serie wenn ihr bis dahin nicht sogar von AMD überzeugt seid.
Eurogamer ist zumindest noch verlässlicher als Tom's Hardware Guide, und das sie Spiele von Nvidia ausgewählt worden sind, das sagen sie ja selbst im Video. Das ist eben der Idealfall. Fake Benchmarks hätte ich umgekehrt aber noch nie gesehen, das man zum Beispiel einen Ryzen mit Stockkühler gegen einen Intel mit Mega-Kühlsystem gegenübergestellt hatte ... das stimmt anderseits schon. Also genau oder vergleichbar sind die Ergebnisse bei Digital Foundry wohl sicher auch nicht.

Aber die Tendenz können sie einem durchaus aufzeigen auch bevor unabhängige Reviews da sind.
 
sikarr schrieb:
Da für mich AMD keine Alternative ist es sei den sie schließen endlich mal auf zu Nvidia, wird es wohl für mich darauf hinauslaufen.
Aber hey...nimm immerhin die vermutlichen Preissenkungen mit für die der AMD Launch sorgen kann :D
 
  • Gefällt mir
Reaktionen: p4z1f1st
Zurück
Oben