News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

Schöne Preise und fette Karten , die da kommen -keine Frage , grade die 3090 "a Monster":king: ,
aber sie wissen offensichtlich auch , dass Amd ein "richtiges Brett" raushauen wird.
Nvidia hat fertig - der Nächste bitte.
Interessant wäre noch später die Statistik , wievielen FE - User die Hw überhitzte/verstarb. :D
 
  • Gefällt mir
Reaktionen: Apocalypse
Mustis schrieb:
Wie kommt man darauf?

Das Digital Foundry Video zeigt auch mehrere Spiele ohne Raytracing oder DLSS mit 65-80% Zuwachs von 2080 zu 3080.

Klar, man kann jetzt natürlich glauben, dass das alles fake oder cherry picked oder was auch immer ist, aber realistisch ist die 3080 damit eine gute Ecke vor der 2080 Ti.

Ich finde die teils negativen Reaktionen hier mehr als lächerlich. Es sieht sehr, sehr stark danach aus, als hätte Nvidia selbst die Best Case Erwartungen übertroffen, trotzdem wird rumgenörgelt ohne Ende.
 
  • Gefällt mir
Reaktionen: Alex1966, MrNejo, Maggolos und 10 andere
MiaSanMiaaa schrieb:
Gib auf den Kunden mal nicht so viel. Er dreht sich die Welt gerne so wie er sie braucht. Beim Grafikkartenvergleich soll man ja bekanntlich auch die Performance nicht so betrachten, sondern eher den Verbrauch. :daumen:
Vielleicht solltest du mal einen Gang runterfahren. Erstens bin ich kein Kunde und zweitens solltest du mal lesen lernen. Wenn jemanden bei 300 Watt die Abwärme bei AMD zu hoch war und Plötzlich die Abwärme bei 350 Watt egal ist - wo spricht er dann von Leistung ? Kann das in dein Kopf gehen oder nicht ? Und ich beziehe mich nicht auf FE Preise sondern auf Custom Preise oder habe ich mich auf die FE Preise gestürzt ? Also mal schön den Ball flachhalten.
 
eazyeazy schrieb:
weiß jemand schon was zu den temperaturen der rtx 3090 unter vollast?
ich warte schon auf die threads:
Kaufberatung:
möchte RTX 3090 und flüsterleises System

oder:
Probleme mit Temperaturen im Gehäuse, hilft es den Rechner im Winter in den Garten zu stellen?
:freak:
 
  • Gefällt mir
Reaktionen: Recharging
tunichgut schrieb:
dass Amd ein "richtiges Brett" raushauen wird.
Oder sie ersticken die flamme der Konkurrenten direkt im Keim. Hoffe aber eher dass du recht hast :) Wäre besser für den Markt und uns als Endkunden.
 
  • Gefällt mir
Reaktionen: gartenriese
Was alle, die glauben, dass AMD nicht in die Nähe der RTX 3000 kommen wird, vergessen: Nvidia erkauft diese Leistung mit großen Chips: Die größten Chips von 2080Ti und 3080 liegen im Bereich von 600-750mm². Die AMD 5700XT liegt bei gerade mal 250mm² und taktet dafür höher(was zu schlechterer Effizienz führt). Prinzipiell hätte AMD auch schon RDNA1 hochskalieren können und mit niedrigerem Takt bei mehr CUs mehr Leistung verkaufen können.
Der Markt für Hochleistungsgrafikkarten wurde in dieser Generation von AMD aber gar nicht ins Visier genommen. Nvidias Architektur ist nicht so überlegen, wie es aktuelle Benchmarks vllt suggerieren.

Die Firma (AMD) ist aber mit den Zen-Architekturen und den Semi-Custom-Chips für MS und Sony voll ausgelastet gewesen.
Die Konsolen kommen bald raus, die Entwicklungsressourcen von SemiCustom können jetzt wieder anderweitig genutzt werden und deswegen ist davon auszugehen, dass RDNA2 mit verbesserter Architektur und im Vergleich zu den Top-RDNA1-Karten verdoppelten CUs mit Nvidia mithalten können wird.
Nvidias Preise sprechen auch dafür, dass sie nicht von einer Monopolstellung ausgehen.
 
  • Gefällt mir
Reaktionen: mythson, eXe777, MindofRafi und 7 andere
Vendetta schrieb:
Kurze Frage zu dem 12 Pin:

Ich hab einen 8 pin connector in meiner 1070TI von dem selben Kabel das rein geht geht ein weiteres mit 6+2 Pin weg, kann ich in Zukunft die beiden in den 12 Pin Adapter für die 3080 stecken?

So sieht der Stecker aus:
Anhang anzeigen 961653

NEIN
 
Vendetta schrieb:
Kurze Frage zu dem 12 Pin:

Ich hab einen 8 pin connector in meiner 1070TI von dem selben Kabel das rein geht geht ein weiteres mit 6+2 Pin weg, kann ich in Zukunft die beiden in den 12 Pin Adapter für die 3080 stecken? [...]
Nein, die sind nicht kompatibel. Der FE RTX 3080 liegt ein Adapter (2x 8pin-PCIe auf 12pin) bei.
 
Mustis schrieb:
Selbst wenn die 3070 so schnell wie die 2080 ti ist so hat letztere immer noch 4 gb mehr vram. Und trotzdem soll man mit verstand weniger dafür zahlen? Aha...

Der geneigte Media Markt Kunde fühlt sich da eventuell betrogen, ja.
 
Taxxor schrieb:
Wenn dann wird abgewartet ob man die Preise noch nach unten korrigieren muss oder ggf eine super/Ti Variante nachschieben muss, wie letztes mal auch, an den offiziellen Preisen wird sich aber außer nach unten nichts mehr ändern

Preis nach unten korrigieren?
Vielleicht verschenkt Nvidia all Ihre FE-Karten zum Nulltarif?

Bei den Preisen haben wohl einige das Gehirn ausgeschaltet.... (Sorry für die etwas aggressive Bemerkung)

Bretze90 schrieb:
Die Realität ist, dass die Preise so offiziell kommuniziert wurden. Diese nachträglich anzupassen wäre wohl das dümmste was man machen könnte wenn man den shitstorm bedenkt der damit ausgelöst wird.

Egal ob gute oder schlechte Presse - am Ende kommt es auf die Performance an und was ein Konkurrent auf den Markt (Performance/Preis) bringt. Auch wenn die 3070 800 EUR kosten würde, würde keiner hier weinen - da man davor schon für die Leistung über 1.000 EUR hinblettern hätte müssen.
 
Pisaro schrieb:
In meinem Fall laste ich die 11GB meiner 1080 Ti fast komplett aus. Wenn ich dann sehe das die RTX 3070 wohl leicht schneller als eine 2080 Ti ist aber dann gleich 3GB weniger hat. Nein danke.
Wir sprechen hier über Load vs Usage: Das Spiel knallt dir den VRAM zu und schmeißt dann,
wenn kein Platz mehr da ist, alte Texturen wieder raus, die es momentan nicht braucht, egal
ob du 8, 12, 16 oder noch mehr GB VRAM hast. Bei weniger Speicher passiert das einfach früher
bzw. öfter. Durch gesteigerte Bandbreite (an PCIE 4.0 und später am GPU zu VRAM Interface),
besseres Speichermanagement und andere Techniken soll das gewährleistet werden.

Ich sage nicht, dass mehr RAM unnötig ist, aber wenn Nvidia nicht lügt, wird das Review der
RTX 3070 genau das aufzeigen, was ich gesagt habe. Genau wie es bei 1080Ti (11GB) und der
2080 (8GB) vor 2 Jahren schon der Fall war:

1598996539836.png

Der Vorteil von mehr VRAM würde dann greifen, wenn die Grafikkarte auf einen Schlag mehr
als 8GB Texturen aktiv nutzt. Alles, was dann nicht mehr reinpasst, müsste ausgelagert werden.
Die Situation kann auftreten, aber das soll ein Reviewer aufzeigen, wenn die Varianten mit mehr
Speicher dann da sind. Und wenn das Leistungsplus den Aufpreis rechtfertigt, na dann bitte.
Aber so Pauschalaussagen á la "viel hilft viel" finde ich inhaltlich zu dünn / unfundiert.
 
  • Gefällt mir
Reaktionen: Alex1966, HwHaTe, MindofRafi und 12 andere
cypeak schrieb:
ich fände auch vieles "fairer" wenn es für mich günstiger zu haben wäre...z.b. eine villa am starnberger see für sagen wir 250k fände ich auch schon fair. auch den benz amg gtr für sagen wie 70k fände ich auch wirklich fair... :evillol: :king:

Ich sag mal so,eine GTX970 gab es zu Release für 330€,so ist das ja nicht.
Gab es den Benz AMG GTR schon für 70k irgendwo?

Nein,dann :stock: :D
 
Jenergy schrieb:
Nein, die sind nicht kompatibel. Der FE RTX 3080 liegt ein Adapter (2x 8pin-PCIe auf 12pin) bei.
Mist, weil das ein 6+2 ist? Also 2x 8 pin würde aber gehen, falls die Partnerkarten auf 2x 8 Pin setzen oder?
 
wird enden wie bei der 1080Ti. wenn RDNA2
Ratterkiste schrieb:
Ich hoffe ja das AMD auf Augenhöhe kommt, dem vermeintlich niedrigen Preis von Ampere würde ich dafür aber nicht als Indiz ansehen.
Bei Nvidia sitzen genug Leute die Marktforschung betreiben.

pfff, wäre nicht die erste FE die im preis ansteigt weil es keine Konkurenz gibt. :)
 
Wenn die 3090 mit RTX on 60Fps in 8K schafft dann sollte sie in 4K locker 144Fps mit RTX schaffen.

Also wird in 2 Jahren die 4080 gekauft, die dann min so schnell wie die 3090 ist, zusammen mit einem 65" Oled odar gar MicroLed die hoffentlich um 1000€ kosten ^^
 
schkai schrieb:
Vielleicht solltest du mal einen Gang runterfahren. Erstens bin ich kein Kunde und zweitens solltest du mal lesen lernen. Wenn jemanden bei 300 Watt die Abwärme bei AMD zu hoch war und Plötzlich die Abwärme bei 350 Watt egal ist - wo spricht er dann von Leistung ? Kann das in dein Kopf gehen oder nicht ? Und ich beziehe mich nicht auf FE Preise sondern auf Custom Preise oder habe ich mich auf die FE Preise gestürzt ? Also mal schön den Ball flachhalten.

Du bist nicht so gut in Mathe und generell in der Thematik gewisse Dinge in Relation zu setzen, oder?
Wenn deine AMD Karte 300W zieht, interessiert das erstmal keinen. Genauso wie es keinen interessiert, wenn die NVIDIA 300W zieht. Wenn jetzt aber eine von beiden dafür X% schneller ist, dann fangen die Leute sich an dafür zu interessieren. Kann das in deinen Kopf? Ja? Gut. Kein Problem. In Nachhilfe war ich schon immer ein Ass :daumen:
 
  • Gefällt mir
Reaktionen: Alex1966, Prophetic, timmey77 und 6 andere
Mal gucken wie schnell die 3080 dann netto wirklich ist, bei 30% Mehrleistung gegenüber meiner 2080Ti könnte ich schwach werden.
 
Matthias80 schrieb:
dein Netzteil ist ein Beispiel für eine sehr schlechte Umsetzung.
Nein denke nicht.
Watt Zahl?

MfG
Ja das ist auch so ne sache ist das TX550M Gold von Corsair, name ist Programm 550W. Fürchte mehr als ne 3070 wird da eh nicht gehen. Aber damals war halt ne 1080Ti das hungrigste als ich das NT gekauft habe und 2 Karten wollte ich nie betreiben, wer konnte mit solchen Monstern rechnen xD
 
Zurück
Oben