News Gaming-Blackwell: Nvidia plant angeblich schon zum Start eine RTX 5070 Ti

die RTX 5090 muss mir zuerst min. 3x meiner RTX 3090 liefern damit ich diese für 2500-3000€ kaufe. Alles andere kommt nicht in Frage!
 
Quidproquo77 schrieb:
Bei euch beiden fehlt halt jede Bereitschaft halbwegs zu differenzieren. Bei Ampere gab es sicherlich einiges zu kritisieren, bei der Konkurrenz aber nicht weniger und das fällt völlig flach.
Aha? Ist dir da nicht ein Bisschen Erinnerung an frühere Postings weggebrochen? In diesem Thread allein hast du doch schon meinen Beitrag gelesen und geliked, in welchem ich das Namensschema der aktuellen Radeons kritisiert habe. Auf jeden Hersteller kritisch zu schauen ist nun einmal das Motto, das man befolgen sollte, um ernsthaft neutral zu sein und Themen differenziert betrachten zu können.
Quidproquo77 schrieb:
Also das mit Abstand unbedeutendste Feature überhaupt für das es bis heute kaum Anwendungsfälle gibt.
Jetzt erst starten langsam die Monitore damit und der Effektive Nachteil beim ASUS ROG Swift PG32UQXR sind 160 Hertz bei einer 7900XTX und folglich nur 138 Hertz auf einer Geforce Karte, die in der Auflösung nur schwerlich zu erreichen sind, vor allem mit der Radeon, bzw im Extremfall 240 Hertz vs 120Hertz auf einem 4K Panel bei 10 bit pro Farbkanal, zudem gibt es noch DSC.
Seit vielen Jahrhunderten ist das Henne-Ei-Problem theoretisch durchdrungen und seit etwa anderthalb Jahrhunderten auch theopraktisch. Will man Innovation pushen, dann ist es wichtig, etwas in die Hand zu geben, an das andere andocken können. Daher ist es ja auch z.B. durchaus begrüßenswert, dass die PCI-SIG aktuell mit jedem neuem PCIe-Standard vor der Zeit da ist und sie auch auf Mainboards aufschlagen, bevor sie gebraucht werden.
Bei DP 2.1 fällt die Situation aber sogar leicht schärfer aus. Denn DP 2.1 (mit vollen UBR20, die übrigens die RDNA3-Radeons nicht bieten, obwohl es bei ihnen technisch geht, wie die Workstation-Ableger zeigen!) wird bereits heute gebraucht. Denn einerseits funktioniert DaisyChain halt nur so wie ausgelegt, wenn man Bandbreite im Exzess hat. (deshalb brauchen auch Monitore, die DP 2.1 gar nicht auslasten können, DP 2.1-Eingänge und Ausgänge) Und andererseits gibt es nun einmal bereits Monitore mit UHD240hz10bit. In Form des FO32U2P wird das auch mit DP 2.1 UBR20 angeboten; die Konkurrenz hingegen schläft und verbaut ihre alten Scaler. (was vollkommen unnachhaltig ist, entsprechend steht bei einem Kumpel jetzt der Monitor neben einem Rechner mit 4090, der nun einmal nur DP 1.4 bietet...)
Apropos Nachhaltigkeit: Schon einmal daran gedacht, wie lange eine aktuelle HighEnd-Graka noch im Gebrauchtmarkt weiterleben wird? Bei den aktuell nachlassenden Sprüngen pro Generation kann da glatt von zehn Jahren und mehr ausgegangen werden. Über die Jahre wird sich genügend darüber geärgert werden, dass bei einer Ada-Karte nur DP 1.4 vorliegt und bei einer RDNA3-Consumer-Karte bloß DP 2.1!
Quidproquo77 schrieb:
Ja, diese Metrik führte Computerbase aber auch in deren Tests an, nämlich die FPS zu begrenzen und dann zu schauen was das Ding noch verbraucht. Sie 4090 ist dabei die effizienteste Karte.
Das ist auch super interessant, nur nicht das, was damals auf den Folien geschah. Da ging es um AVG-FPS bei unterschiedlichen Powertargets und nicht um gecappte FPS.
Persönlich heißt es für mich übrigens, aus dem Notebooklager kommend, ohnehin stets go big or go home und entsprechend habe ich meine 2080ti auch stets betrieben. (gecapped und mit niedrigeren Powerlimits, in der Regel 55%)
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich denke, dass Problem/Gefälle zwischen einer 5090 und 5080 liegt zum Teil im monolithischen Design der Chips. Eine 5080 welche nicht nur ca. 50% einer 5090 entspricht, sondern 75%, ist nur mit einem teildeaktivierten/teildefekten Chip einer 5090 möglich. Angenommen die Chipausbeute ist aber gut/sehr gut und entsprechend viele Chips eignen sich für eine 5090, die sich entsprechend verkaufen lassen, warum also sollte Nvidia diese zu 5080er "verstümmeln" und weniger damit verdienen?
Klar kann man über die Produktionszeit dann diese "schlechten" Chips sammeln und dann später irgendwie einer Resteverwertung zuführen.
Hoffnung auf eine "starke" 80er Baureihe habe ich erste wieder, wenn Nvidia, wie AMD, auf ein Chiplet Design umstellt und man so feinere Abstufungen in den Leistungsstufen machen kann.
Bin kein Hardwaretechniker, nur meine Laienhafte Ansicht zur Situation.
 
RexCorvus schrieb:
USA zahlen sicher keinen Zoll auf Produkte ihrer eigenen Firmen
Natürlich zahlen die Zölle bei der Einfuhr von Ware. Wie kommst du denn auf die Idee? :freak:
 
Zwirbelkatz schrieb:
Es wäre schön, eine einigermaßen erschwingliche Karte kaufen zu können, die min. 16GB Speicher hat und mit etwas Anpassung noch an einem 550w Netzteil läuft.

Ich habe eine 4090 noch ein halbes Jahr mit einem 550W Netzteil betrieben, mit dem vorher auch eine 3080 und davor Vega64 lief. Das war mit leichtem UV gar kein Problem.

Bei Netzteilen haben sich 95% der Nutzer total vom Marketing um den Finger wickeln lassen.
 
  • Gefällt mir
Reaktionen: Brrr
Gebt doch endlich der 80er mehr VRAM... was soll der Geiz.
Dann wär sie so viel attraktiver.
 
  • Gefällt mir
Reaktionen: SweetOhm und Simanova
Simanova schrieb:
Ich darf daran erinnern, dass eine Nvidia 4070Ti mal eine 4080 war.
Nach dem Schema hätten wir heute eine RTX 3040 Gaming GPU mit 8GB VRAM
Warum auch nicht? 5090 5080 5070 5060 5050 5040 5030 5020 5010. Die xx90 gab es bis vor 4 Jahren auch nicht. Und wenn man einen Refresh macht kann man immer noch irgendwas dran hängen. So wäre alles schön durchgestaffelt. Wir haben ja, außer im Laptop, noch nicht mal eine 4050 bekommen. Also hätte man eine 4060 auch 4050 nenen können und die 4060Ti 4060 und fertig. Viel übersichtlicher wie ich finde. Aber das soll wohl einfach uninformierteren Gamern Sand in die Augen streuen. Wenn man an eine möglichst hohe Nr. TI oder Super hinhängt, aber den Speicher wieder knapp bemisst, muss er bald wieder kaufen. Nur wie man grad an Stalker 2 sieht werden 8 und auch schon 12 GB langsam mehr als knapp.
 
Zuletzt bearbeitet:
300 Watt wäre ein Bereich, wo 3 Lüfter und 3 Slots Sinn machen.
Problem ist - viele Leute, inklusive mir, sehen 2 Slot Designs und 30cm Länge als Limit an.
 
Eine 5070ti 16GB für den Preis der 4070ti und etwas schneller als eine 4080 wäre interessant.
50% mehr VRAM und fast 3x so schnell wie meine 1080ti für einen ähnlichen Preis hätte was.
Damit hätte ich zumindest eine Alternative falls die 5090 einen komplett irrsinnigen Preis bekommt und nur eine 5080 16GB erscheint.
 
  • Gefällt mir
Reaktionen: SweetOhm, nurfbold, inge70 und eine weitere Person
piccolo85 schrieb:
Ich habe eine 4090 noch ein halbes Jahr mit einem 550W Netzteil betrieben
Weshalb nicht länger? ;)

Welches Modell ist es denn gewesen?
 
Shoryuken94 schrieb:
Gibt aber keinen wirklichen Grund für Nvidia das zu machen, wenn AMD nicht mal Konkurrenz zur 5080 hat, kann man die 5090 schön teuer anbieten mit einer riesigen Lücke dazwischen und so den geneigten High End Käufern eine 5090 verkaufen, weil sich alles andere ja nicht lohnt.

Natürlich könnte Nvidia eine 5080Ti bringen, die den großen Chip nutzt, aber wozu?
Es gibt da so ein magisches Zauberwort im Vertrieb, dass sich "Upselling" nennt.
Teildefekte 5090er-Chips könnten leicht als 5080Ti o.ä. verwurstet werden.

Zwischen der 4080 und der 4090 gibt es zwar auch eine gewisse Lücke, aber rein auf dem Datenblatt hat die 4090 grob 60-70% "mehr von Allem". Seien es jetzt RT-Cores, Stream-Prozessoren, Cuda-Cores, VRAM oder whatever. Im realen Einsatz trennen die beiden Karten dann aber eher 25% in 1440p und gute 30% in 4K.
Dafür hast du auch 500€ Aufpreis verlangen können.

Da die 5090 nun aber von Allem das Doppelte besitzt, wird sowohl die Leistungsdifferenz real aber in Richtung 40-50% gehen und auch die Preisdifferenz wird nicht nur bei 500€ liegen; sondern deutlich darüber.

Und genau diese Lücke kann man mit kleinen Zwischen-Steps auffüllen und aus den potentiellen 5080er Käufern dann doch noch mehr Kohle rausquetschen. Die Wenigsten lassen sich wahrscheinlich zum Kaufpreis einer 5090 hinreißen. Aber sicher doch Einige noch zu einer etwas teureren 5080Super oder 5080Ti.
 
  • Gefällt mir
Reaktionen: SweetOhm
Beeindruckende Daten. Der Stromverbrauch aber ist heftig. Kann man eigentlich nicht mehr gut heißen heutzutage. Ich hoffe auf eine rtx5060 oder 5050 mit min. 12GB Ram. Wenn aber schon eine 5070 nur 12GB hat werden es wohl max. 8 werden.
 
Jethro schrieb:
Eine 5070ti 16GB für den Preis der 4070ti und etwas schneller als eine 4080 wäre interessant.
50% mehr VRAM und fast 3x so schnell wie meine 1080ti für einen ähnlichen Preis hätte was.
Damit hätte ich zumindest eine Alternative falls die 5090 einen komplett irrsinnigen Preis bekommt und nur eine 5080 16GB erscheint.
Gut wäre wenn die 5090 doppelt so schnell wie die 4090, die 5080 so schnell wäre wie die 4090, die 5070 so schnell wie die 4080S und die 5060 so schnell die 4070Ti Super, die 5050 so schnell die 4070 Super, die 5040 auf 4060Ti Niveau. und weiter runter. Und alle ab 5060 16Gib VRAM.
 
  • Gefällt mir
Reaktionen: SweetOhm
iron_monkey schrieb:
stellst immer dein Monitor auf 60Hz um bevor du spielst?
Rhetorische, unnötige Frage 😋
Tatsächlich stelle ich Genrespiele wie z.B. Factory/Strategie jedoch auf 60 Hz cap. weil mir das reicht. Sehe ich den Unterschied? Klar, aber ist mir dieser das mehr an Verbrauch von wertvoller Energie wert? Nein. Mein Display kann ohnehin Max 120Hz.
Ich verurteile die Menschen ja nicht, finde es persönlich jedoch schon irre wie gewillt manche sind jeden Preis zu bedienen. Die Gründe und Rechtfertigungen brauche ich nicht, alle schon gehört und gelesen.

Na ja das mit der 70er Reihe freut mich für diejenigen, die dann nicht Ewigkeiten auf eine 60er warten. Mal schauen wie spendabel der Laden beim VRAM sein wird.
 
  • Gefällt mir
Reaktionen: Corpus Delicti und Brrr
Zwirbelkatz schrieb:
Weshalb nicht länger? ;)

Welches Modell ist es denn gewesen?
Weil ich meiner Frau einen Office PC gebaut und das Netzteil dafür benutzt habe. Ist ein 550 Watt Seasonic FOCUS Plus Gold und verrichtet noch immer seinen Dienst. Ich bin aber auch seit Jahren auf AMD, es hilft natürlich wenn der Prozessor beim Gaming nie über 80W kommt. Was auch Teil der Wahrheit ist, ohne UV gingen im Stresstest (Furmark + Prime95) die Lampen aus... Grundsätzlich funktionierte das aber im Alltag Problemlos. Ich habe dann bei der Gelegenheit trotzdem auf ein 750W Seasonic Focus Plus Platinum gwechselt - Wer weiß was noch kommt und die Dinger halten ja 10+ Jahre.
 
  • Gefällt mir
Reaktionen: SweetOhm
@Jethro, kannst doch die 5080/16 wenn diese für 999$ erscheint als Druckmittel gegen hohe 4090 gebraucht Preise nehmen.

Ich sehe da im Gegensatz zur letzten Generation auch keinen großen Absatzmarkt für eine 5080/16.

Es ging von 3080/10 auf 4080/16 bei fast identischen Verbrauch, mehr Leistung und mehr Speicher.
 
  • Gefällt mir
Reaktionen: Jethro
Variante 1) Die ti wird entgegen des Datenblatts das Upgrade zu einer 5070/8GB bzw. die "Luxus"-Variante mit satten 12 GB VRAM. :daumen:

Variante 2) Die RTX 5070 (non-ti) ist von der Rohleistung näher an der 5060 als an der 5070ti, effektiv also eine 5060ti (siehe RTX 3050ti, äh, 3060/8GB, einer der größten Mogelpackungen, die Verbraucherschützer nicht aufm Schirm hatten).

Some ways you're meant to be played.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Chismon
Kommando schrieb:
Bin inzwischen froh den SFF-Wahn entkommen zu sein. 😂

Gehäuse hängt einfach hinter dem Schreibtisch,
Hatte auch diese Entwicklung und PC hängt auch unter dem Schreibtisch nimmt also keinen Platz weg. Trotzdem wechsle ich jetzt wieder zurück zu SFF. Grund ist dass ich manchmal bock habe im Schlafzimmer am Fernseher zu zocken. Ich will da nicht die Riesenkiste herumtragen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando
Zurück
Oben