News Nvidia RTX 5070 Ti: Preise von über 1.200 Euro bei kaum Bestand zu erwarten

NIGHTFIL schrieb:
Ach echt? Ist das so?
Stimmt, jetzt wo du es erwähnst... Mit meiner AMD kann ich schon seit Jahren keine Spiele mehr spiele
Hört doch einfach auf....
NV ist die Käuferschicht egal, die wissen jedoch eines, für die Features, die die Käuferschicht möchte, sind sie Konkurrenzlos.
DLSS -> viel besser als FSR, vor allem im neuen Modell.
Framegen -> ähnlich scheiße wie bei AMD
CUDA/Computing -> viel besserer Support als bei AMD
Treiberoptimierung -> viel bessere Treiber als bei AMD (subjektiv)
Stromverbrauch -> besserer Idle und Last Verbrauch (weniger Verbrauch)

NV hat das bessere Produkt, fast durch die komplette Produktpalette.
Meine Güte, AMD ist eben für viele keine Alternative für den eigenen Anspruch.

Und wir reden hier nur von Desktop.
Im Notebook hat AMD ja den Schwanz eingezogen und ist weggerannt.

Ich finde das hier auch nicht schön, was NV veranstaltet und der Performanceuplift für die RTX5000 ist auch lächerlich, aber wer hatte bei gleicher Fertigung mehr erwartet?

Hört auf AMD oder NV an sich zu verteidigen, die wollen für den Kunden NICHTS gutes, die wollen nur ihre Produkte verkaufen.

Fakt ist - AMD stellt sich im dGPU Markt an wie der letzte Depp, bietet aber Lösungen die nutzbar sind.
Fakt ist, NV hat für viele einfach das technisch, jedoch massiv überteuerte und verknappte Produkt.

Beides gefällt mir nicht.
Und vor allem wen ich hier schon wieder lese, dass Leute gleich auf Intel stramm gehen, dass die Firma lieber nicht mehr unterstützt werden sollte usw....

Wenn das hier jetzt dann so weitergeht, dass Intel zerschlagen wird, dann werdet ihr euch alle noch in eine Zeit der Konkurrenz zurück sehnen.
Dann kostet euer billiger X3D nämlich keine günstigen 600 mehr, sondern direkt 1200.
AMD ist nicht die Wohlfahrt, die ziehen die selben Moves ab wie jeder andere Laden....

Wir könnten hier auch alle mal weniger Ideologisch und mehr rational an die Themen ran gehen! :)
 
  • Gefällt mir
Reaktionen: sikarr
1sascha schrieb:
Und wenn das Rolex-Modell die Zukunftsvision von Lederjacke ist, dann sollten wir uns wohl alle ziemlich rasch nach einem neuen Hobby umschauen... :/
Die Lücke wird dann von jemand anderem gechlossen. Auch andere Firmen können GPUs bauen. Wenn die Merken das sich Nvidia aus dem Segment zurückzieht werden die Ihre Chance sehen.
Unti schrieb:
Im Notebook hat AMD ja den Schwanz eingezogen und ist weggerannt.
War AMD wirklich jemals Relevant im Notebook Segment? Ich habe (gefühlt) nie wirklich Produkte von denen im Notebook gesehen und wenn waren es nicht gerade Mobile Geräte. Kann mich noch an eine 9600M erinnern gepaart mit einem P4, es war laut, heiß und der Akku hielt keine Stunde.
 
Mordhorst3k schrieb:
Ist halt AMD. Leider hinken die jahrelang Nvidia technisch hinterher. GPUs haben immer noch keine richtige Videoencoding wie NVENC - VCE ist da nicht vergleichbar. AMD ist auch nicht fähig deren GPUs zu optimieren im Bezug auf Stromverbrauch. Aber höherer Stromverbrauch ist inzwischen "in".

Mein Ryzen 5900x mit Aorus B550 Pro V2 zieht im Idle 100w - läuft. Im Energiesparmodus (CPU @ 1.7 GHZ) sind es noch 70-80w.

Von Anfang bis Ende Blödsinn

Der AMD Decoder und Encoder nimmt sich bei H.265 und AV1 gar nix zu NV. NV ist bei H.264 in tiefen Bitraten
etwas besser, aber bei etwas höherer Bitrate als lächerlich wenig nehmen sie sich gar nix. Und das ist auch nur beim Twitch Streaming ein Problem. Wenn die Lahmärsche mal auf einen modernen Videocodec gingen.
Und das AMD da keinen Aufwand mehr in einen über 20 Jahre alten, überholten Videocodec steckt ist verständlich.

Dann der Verbrauch, auch Idle war z.B. bei den 6000er AMDs meist besser als bei den 3000er NVs.
Die 7000er AMD GPU brauchen im Idle nur mehr weil es ein Chiplet Design ist, was noch nicht
toll optimiert ist. Dass ein Monolith wie die NV 4000er da weniger braucht, ist logisch.
Das wird bei den 9000er Radeons anders aussehen.

Dann ein 5900er Ryzen braucht im Idle keinesfalls mehr als 30-35W (CPU), wenn er mehr braucht, ist das ganze System schlecht konfiguriert oder es läuft Software auf dem System die ihn immer wieder unnötig aus dem Sleep aufweckt. Irgend ein Beleuchtungsmüll? GB Software? Corsair Käse? NZXT Rotze?

Weil normal ist das nicht....

Bei meinem 5800X3D sind das vom ausgewogen zum stromspar Profil 3-4W Unterschied im Idle.
Und da sprechen wir von 18-24W nur CPU.
 
Zuletzt bearbeitet:
sikarr schrieb:
War AMD wirklich jemals Relevant im Notebook Segment?
Was heißt relevant.
NV hat so eine hohe Brand Recognition, welche über Jahre ausgebaut wurde, dass AMD hier einfach mit den OEMs und deren Knebelverträgen durch NV (welche zwar niemand kennt aber immer nur vermutet wird) keine vernünftigen Lösungen anbieten kann/will.
Es gab mal bei RDNA2 sehr gute mobilen Lösungen. Also so eine RX6800M oder so war nicht schlecht!
AMD hat leider den Hang zu "ist mir alles Latte, ich ändere alle Tage meine Produktpalette und biete dem Kunden keine Kontinuität).
Das hasse ich an AMD im GPU Markt.

NV macht seit Jahren erwartbares, im Desktop wie Notebook.
Es gab z.B. zu GTX200er, GTX400er, GTX1000er, RTX2XXX, RTX3XXX, RTX4XXX usw. immer mobile Lösungen, genau wie im Desktop.
Ich kann mich an nichts von AMD erinnern.

Relevanz muss man sich aufbauen, AMD tut nichts relevantes in diesem Sektor, deshalb....
 
Unti schrieb:
Wir könnten hier auch alle mal weniger Ideologisch und mehr rational an die Themen ran gehen! :)
Würde ich gerne. Aber wie soll man da z.B. rational bleiben?
RTX 5090.png

Bei den "Deals" von Geizhals. Mal eben den Eindruck erwecken, man würde bei einer 5090 für 4000 Tacken 27% sparen. Ja, natürlich, direkt kann nVidia da nichts für. Aber die werden ganz genau beobachten, ob sich sowas auch noch verkauft. Und wehe wenn. Das merken die sich ganz genau, wo die Schmerzgrenze liegt.

Oder hier im nVidia-Marketplace:
1740045237025.png

Oh...die Founders-Edition für UVP ist leider nicht verfügbar. Aber hey, für nur einen Tausender mehr kannst Du doch eine Custom-Karte kaufen.

Es kotzt mich einfach an und es kann mir keiner erzählen, dass nVidia irgendetwas dagegen tut. Ja, mag ja sein, dass andere in der gleichen Position ähnlich agieren würden. Aber ich bin diese Relativiererei leid: Das hier ist einzig und allein nVidias Shitshow!
 
FatFire schrieb:
Es kotzt mich einfach an und es kann mir keiner erzählen, dass nVidia irgendetwas dagegen tut. Ja, mag ja sein, dass andere in der gleichen Position ähnlich agieren würden. Aber ich bin diese Relativiererei leid: Das hier ist einzig und allein nVidias Shitshow!
Ich hab nie gesagt, dass ich das nicht auch scheiße finde.
Ich will sogar ne 5090 kaufen, sobald der 9950X3D verfügbar ist, aber sicherlich nicht für diese Preise.
AiB bis 3200 mit Waterblock gehe ich mit - Konkurrenzloses Halo Produkt, da kann man sich nicht drüber beschweren leider....
Dass es derzeit so aussieht wie es aussieht liegt nur an der Verfügbarkeit und den huren Sclapern.
NV verdient doch gar nichts an den Karten.
Die haben ihre Marge (eine hohe Marge^^) auf der GPU selbst und der Rest ist nur durch diese Händler + Scalper verursacht.
Meinst du NV sieht irgendwas von den +3500 Euro (also 7000€ oder so) von einer 5090?
Nichts sehen die.
Die heben dann halt für die 6090 den Preis pro GPU um 15-20% an.
Dass da am Ende +1000e € wieder rauskommen, hängt nur an der Kette die da noch hinten dran hängt.

Ich verteidige nichts.
NV kann jedoch nur für die Verfügbarkeit was.
Woher das Geld kommt ist denen am Ende egal, auch AMD ist das egal - siehe 9800X3D Release.

Es ist wie es ist.
Es wird sich auch nichts ändern.
Ich für meinen Teil habe akzeptiert.
Heißt aber nicht, dass ich bei diesen Preisen mitgehe, da hat auch mein "haben will" ein Ende.
Ergänzung ()

Mich würde ja wirklich mal ganz genau interessieren, was derzeit in der aktuellen Weltlage der reine Chip inkl. aller Betriebs und Entwicklungskosten kostet.
Dann noch die Entwicklung der Platine + Kühler + Material.

Mich würde interessieren wie viele 100e Dollar von den 1999$ wirklich Marge sind.

Hat da jemand genauere Infos?
Also nicht nur geraten, sondern realistisch "geschätzt"?

Weil mit den +1000$ teilweise für die AiBs ist das ja nur dafür, dass man als AiB und am Ende Händler was verdient oder?
Oder sind die 1999$ von NV für die Founders + Steuern schon so auf Kante, dass man nur ein paar 100 "Marge" hat.


Wenn NV an der Karte "nur" 400-500$ verdient, wäre das jetzt wirklich nicht so viel.
Wenn AiBs die für den selben Preis anbieten würden, wären wir ja locker bei Verlust pro Karte.

Skaliere das mal runter auf die anderen Karten.....
 
Zuletzt bearbeitet:
Unti schrieb:
Wenn NV an der Karte "nur" 400-500$ verdient, wäre das jetzt wirklich nicht so viel.
Wenn AiBs die für den selben Preis anbieten würden, wären wir ja locker bei Verlust pro Karte.

Skaliere das mal runter auf die anderen Karten.....

NV fährt eine Marge von an die 60%, die verhungern sicher nicht.
Eher müssen Dir die AIBs leid tun, weil bei denen bleibt wirklich nix hängen.
So 1-2% heisst es da.

Und dann kommen natürlich noch die Händler und Scalper, welche die jetzige Verfügbarkeit natürlich ausnutzen.
 
Es wird so Ablaufen wie beim 9800X 3D... völlig übertriebene Preise und schlimme ist dann,
die werden nur langsam wieder sinken. Bedeutet, bis wir mal allein beim UVP bzw. Preisen sind,
welche schon von Beginn an hätten sein sollen ankommen, werden Monate vergehen.
Denn die Preise werden nur laaangsam sinken... einfach Mist - wie beim 9800X 3D.
Und die Taktik ist die selbe.. kommt mir bitte keiner mit nein und freie Marktwirtschaft bla blubb..

Preise der Vorgänger werden nach oben "korrigiert"!

Siehe AMDs CPUs - 78X3D usw..
 
Ja die Händler nutzen die mangelnde Verfügbarkeit aus, Angebot und Nachfrage.

AMD hat da gar nix von und die haben auch den Preis nicht nach oben korrigiert.

Irgendwo hab ich kürzlich eine Grafik gesehen, wie sich die AMD 9000er Prozessoren grad verkaufen.
Irgendwie 93-95% sind nur rein der 9800X3D.
Wenn die ganze Welt den Prozessor will, kann das Angebot an diesem halt nicht Schritt halten.
Da steigen die Preise ganz automatisch.
Was aber auch ein Gutes hat, wenn die Nachfrage gesättigt ist, wird auch der Preis sinken.
Da brauchts aber was ganz altmodisches, was heute nicht mehr gefragt ist, GEDULD!

Ist bei den anderen 3D Prozessoren nicht anders, die Nachfrage ist gross, die Verfügbarkeit nicht, der Preis steigt.

Selbst bei den 5600X3D und 5700X3D sind die Preise gestiegen.
 
Unti schrieb:
Wenn das hier jetzt dann so weitergeht, dass Intel zerschlagen wird, dann werdet ihr euch alle noch in eine Zeit der Konkurrenz zurück sehnen.
Dann kostet euer billiger X3D nämlich keine günstigen 600 mehr, sondern direkt 1200.
AMD ist nicht die Wohlfahrt, die ziehen die selben Moves ab wie jeder andere Laden....


Eigentlich müsste er das längst tun. Denn er hat insbesondere in seiner Gaming-Spezialität einen weitaus größeren Vorsprung, als es der Athlon 64 FX-55 vor zwanzig Jahren je hatte. Und nicht nur zahlt man zwei Dekaden später weniger Scheine für den X3D. Er hat bislang nicht mal näherungsweise völlig neue CPU-Preiskategorien erschlossen.
 
Seit den Tests der 5000er Karten und der derzeitigen Lage der verfügbarkeit derselbigen bilde ich mir ein sowohl am Rechner mit der 7900XTX sowie am Rechner mit der 4080 ein leichtes Lachen aus dem jeweileigen Gehäuse zu vernehmen. Glaub ich werd verrückt. :streicheln:
Ergänzung ()

Pheenox schrieb:
Die einzig treffende Aussage wäre, dass es zur 4090 und zu Raytracing bei der 4080/4090 keine Alternative gibt.
Ich stimme dir da zu, was immer über die AMD Karten gesagt wird das diese keine Alternativen sind ist sehr großer Blödsinn. Wobei es ja auch das ein oder andere Game gibt wo die 7900XTX auf 4090 Niveau performt, natürlich ohne RT, is ja klar. Ich habe selbst eine 4080 (hab ich genommen nach dem Stecker Tot einer 4090 damals) und eine 7900XTX im Einsatz und die AMD steht in Sachen Performance der 4080 in nichts nach, abgesehen von RT versteht sich. Und wenn ich beim AMD System alle Regler auf Max stelle sind die 24GB schon irgendwie beruhigender wie die 16GB beim NV System, obwohl das nur im Kopf so ist. 😅
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pheenox
modena.ch schrieb:
Von Anfang bis Ende Blödsinn
Das ist deine Meinung, die du natürlich haben darfst, sollst oder eher: musst :)

Man braucht sich nur die Videos von Eposvox oder so ähnlich ansehen, der das immer wieder mal testest und NVENC schneidet da, was Entlastung der CPU/GPU angeht, immer wieder deutlich "besser" ab. Insbesondere die Bildqualität ist da immer besser als bei AMD. AMD handelt dieses Thema seit Jahren eher stiefmütterlich und hat offensichtlich nur wenig Interesse daran, das zu verbessern. Nicht ohne Grund wird für bspw. Gameplayaufnahmen eher zu Nvidia geraten. Nvidia Karten haben dafür dedizierte Chips (je nach GPU 1-2). Mich überzeugt die Qualität und Performance von NVENC deutlich mehr als es VCE könnte. Beim Einsatz von NVENC leiden auch die FPS deutlich weniger als es bei AMD der Fall wäre. Wie eben geschrieben, tangiert AMD eher weniger.

Das sind Dinge, wo ich mich vermutlich in die Kategorie "Nvidia Fanboi" eintragen müsste. Aber Preise wie bei den 50er Karten, nein, einfach nein. Da kann ich an der Stelle nur Linus Torvalds quoten....

Dennoch sind das Features wo Nvidia leider besser ist als AMD. Wäre es andersrum, würde AMD genauso so verfahren wie Nvidia. Leider ist es eben so, dass Nvidia im Bereich der Features mehr punkten kann als AMD.


modena.ch schrieb:
Dann ein 5900er Ryzen braucht im Idle keinesfalls mehr als 30-35W (CPU), wenn er mehr braucht, ist das ganze System schlecht konfiguriert oder es läuft Software auf dem System die ihn immer wieder unnötig aus dem Sleep aufweckt. Irgend ein Beleuchtungsmüll? GB Software? Corsair Käse? NZXT Rotze?
Das weiß ich, es ist definitiv nicht normal und ich weiß nicht woran es liegt - es kommt sogar bei einem frischen (!) Windows vor. Gemessen wurde btw. mit einem VOLTCRAFT EM 1000 BASIC, wie genau das Ding ist weiß ich nicht, kann ich nicht beurteilen. Wenn da aber (nur für den PC im Idle auf Desktop!) 100w steht, dann stimmt am System was nicht.

Ich habe Voicemeeter im HIntergrund laufen + das Macro-Tasten Tool im Hintergrund, ansonsten nur wenig im Systray - darauf achte ich tatsächlich. RGB Kram ist ausgeschaltet.

Habe Voicemeeter mal deaktiviert und Last ging ein klein wenig runter, aber nicht viel. Als ich damals getestet hatte, war das mit einer RTX 2070s, mit meiner 4070s nicht probiert - ist mir aber inzwischen egal, weil ich vermutlich im laufe des Jahres auf einen 9800x3D oder (wahrscheinlicher) einen 9900x3D upgraden möchte. (ich weißl, das sogar AMD den 8 Kerner empfiehlt, habe jetzt 12 und möchte eigentlich Kerne nicht "downgraden".)

modena.ch schrieb:
Weil normal ist das nicht....
Richtig. Siehe Text oberhalb.
 
sikarr schrieb:
Du bist auch einer von denen wo der Sprit nicht teurer wird weil ihr immer für 50€ tankt?
wieso er ist eher einer der normalen Sprit tankt und nicht irgend ein Super-füllung mit höherem Oktangehalt...

und was sagst du dann zu mir dessen Limit bei 350 oder so ist sagen wir 380... und natürlich ist das schon an Inflation angepasst.

Erinnere mich nicht mehr oder sehr schwer an alle karten die ich hatte aber eine war ne HD 4770 die karte kostete wohl beim Release irgendwas um die 100 Euro. (eher noch drunter), nun will ich gern zugestehen das das ein bisschen ein Kompromiss war, entweder war der Ram zu wenig oder die hatte irgend ein zu altes Shadermodell irgendwas war an der Problematisch, wie auch immer auch ne 4870 hätte damals nur 150 Euro gekostet, selbst wenn ich die nehme, währen wir heute nur bei 205 Euro wegen Inflation, bin aber bereit GEBRAUCHT anders ists eh Sinnlos bis zu 380 aber lieber nur 330 Euro zu blechen, ist man damit wirklich vergleichbar mit jemand der jammert das nach dem Krieg ne Semmel 2 Cent gekostet hat?

Das sich der Preis von ner highendkarte Inflationsbereinigt ver10facht hat in 15 Jahren ist man da so verrückt das nicht mit machen zu wollen? Und erwarte ja eh kein Highend... ne 800er klasse auch von vor 2 Generationen reicht mir im Zweifel ja schon. Wobei ich nehms zurück wenn die 9700xt raus ist würd ich nicht mehr als 270 für ne 6800er zahlen wenn überhaupt das.

hab auch für 180 euro ne rx480 gekauft vor dem Miningboom dann im Boom für 380 wieder verkauft... also 250 halte ich für ne gebrauchte Karte die in RT scheisse ist, immer noch für nicht zu viel verlangt.
 
Zuletzt bearbeitet:
Mordhorst3k schrieb:
Das ist deine Meinung, die du natürlich haben darfst, sollst oder eher: musst :)

Man braucht sich nur die Videos von Eposvox oder so ähnlich ansehen, der das immer wieder mal testest und NVENC schneidet da, was Entlastung der CPU/GPU angeht, immer wieder deutlich "besser" ab. Insbesondere die Bildqualität ist da immer besser als bei AMD. AMD handelt dieses Thema seit Jahren eher stiefmütterlich und hat offensichtlich nur wenig Interesse daran, das zu verbessern. Nicht ohne Grund wird für bspw. Gameplayaufnahmen eher zu Nvidia geraten. Nvidia Karten haben dafür dedizierte Chips (je nach GPU 1-2). Mich überzeugt die Qualität und Performance von NVENC deutlich mehr als es VCE könnte. Beim Einsatz von NVENC leiden auch die FPS deutlich weniger als es bei AMD der Fall wäre. Wie eben geschrieben, tangiert AMD eher weniger.

Ich hab mir viele Vergleiche zu den Encodern und Decodern angesehen und auch bei AMD gibt es da bei den grösseren Modellen mehrere Hardware Decoder und Encoder.

Den letzten Stand den ich da im Kopf habe, ist mit den Radeon 7000ern und einem Treiber von mitte 2024.
Und da war es eben so, dass sie sich bei AV1 und h.265 (HEVC) gar keinen Unterschied gibt, weder bei der Bildqualität, noch bei der Performance. Die auf die FPS ja sowieso kaum einen Einfluss haben sollte, weil
sind ja extra Hardware Einheiten, die getrennt von der Renderpipeline laufen.

Bei h.264 (AVC) gibt es bei niedrigeren Bitraten noch Unterschiede, aber nur bei den niedrigen, weil man das aber normal eh nicht verwendet oder nur für Twitch, würd ich sagen WAYNE. Da kann ich verstehen, dass AMD in diesen alten, völlig überholten Videocodec (wie gesagt, über 20 Jahre alt) keine Mühe mehr steckt.

Daher alles relativ und bei den 9070ern bewerben sie ja sogar die deutlich bessere Performance des Decoding und Encoding.

Und auch wenn viele sagen fürs Streaming muss man NV haben ist das wie der ach so schlechte AMD Treiber, eben ein Märchen von früher.
 
  • Gefällt mir
Reaktionen: Mordhorst3k
1740090833819.png



Ich bin wahrscheinlich zu blöd, um das zu verstehen, aber fände es echt toll, wenn mir jemand erklären könnte, warum alle Karten die nicht barebones/UVP sind plötzlich derart irrsinnige Aufpreise haben.

Gigabyte Windforce = 879 Euro (5070 Ti UVP)
Gigabyte Eagle OC = 1339 Euro (460 Euro über UVP).

An der Verfügbarkeit kann's ja wohl nicht liegen weil eh alles "nicht verfügbar" ist. :D

Ich hatte die 3070er Eagle und habe dafür, glaube ich, um die 10 oder 20 Euro mehr hinlegen müssen als für die Windforce. Macht ja auch Sinn, da diese Karten üblicherweise bloß eine etwas andere Plastikabdeckung, eine mikroskopisch kleine Menge an RGB-LEDs und ein ebenso lächerlich kleines Mehr an Übertaktung haben (~10, 20 MHz). Der Kühler selbst ist IMO identisch, genauso wie Anzahl und Größe der Lüfter... wo also kommen da beinahe 500 Euro oder über 50 Prozent Mehrpreis zusammen?

Selbst meine 4070 Super Gaming OC (zwei Stufen über MSRP/Windforce) kostete mich weniger also 10 Prozent mehr als die Basiskarte, und ich denke auch die Aorus Master wurde nicht für derart unverschämten Aufpreis angeboten ...

S.
 
Weil irgendwelche Leute diese Preise zahlen, egal welche Version das nun gerade ist.
Sozusagen vom Kunden zur Preiserhöhung gezwungen. Da geht's nur um Stückzahlen und Verfügbarkeit, die Technik interessiert da gar keinen mehr. ;)
Die kaufen trotzdem immer weiter alles. Da wär ja jeder Hersteller und Händler blöd, wenn er nicht immer weiter die Preise erhöht.
Falls es doch nur "Fakekäufe" durch Scalper sind und die Karten nicht wirklich bei Endkunden landen, wird ganz einfach die Pyramide über kurz oder lang einstürzen.
Also alle, die bis eben noch nie zocken konnten, weil sie keine RTX 50xx hatten(^^), vielleicht noch ein paar Tage weiter ohne überleben...
 
Zurück
Oben