News GeForce RTX 3090 Ti: Januar verstreicht ohne die angekündigten weiteren Infos

Wird sowieso viel zu teuer! Werde wohl noch mit meiner RTX 2080 auskommen müssen auch wenn es für 4K nicht immer reicht 🙃
 
Was soll ich denn mit so einer Schleuder?
Das ist ja so als wenn ich dauerhaft einen Eierkocher laufen lasse....
450W TDP na klar. Und der Strom wird auch immer günstiger :D
UVP 1499€ und Marktpreis dann 4999€ ? nee lass mal!
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Aladin86
Die Hitze in der Bude im Hochsommer + 3090Ti in Kombo mit einem potenten Prozessor und auch hochgezüchteter Bildschirm wird ohne aktive Klimaanlage ein Desaster. Viel Spaß ~1000Watt als Wärme abzuführen. Oder am besten das Zocken einstellen weil die Bude unerträglich wird :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MegaDriver
guillome schrieb:
Die Hitze in der Bude im Hochsommer + 3090Ti in Kombo mit einem potenten Prozessor und auch hochgezüchteter Bildschirm wird ohne aktive Klimaanlage ein Desaster. Viel Spaß ~1000Watt als dauerhafte Wärme abzuführen.

Ich habe ein kleines Bürochen im neuen Haus.
Selbst jetzt im Winter heize ich nur mit mir und Monitor das Zimmer auf 23-24 grad. Die gesamte PC Abwärme geht per Wasser ins Wohnzimmer.
Ich will nicht wissen wie son kleiner Heizlüfter da mit heizt.

Und nein das Zimmer ist nicht beheizt, das ganze Jahr nicht.

Wobei, ich muss gerade an @HisN denken, der ist wahrlich leidensfähig ^^
 
  • Gefällt mir
Reaktionen: TechFA
Ich habe natürlich gut reden, weil ich mit 3060, 3060ti und 3090 gut eingedeckt bin.

Aber ehrlicherweise hat sich bei mir die Faszination für neue Hardware fast vollständig verflüchtigt. Markt- und Preislage bei den Grafikkarten ist ja allen bekannt - allein dabei kann man schon die Lust verlieren.

Was jetzt gerade vorgestellt wird an Modellergänzungen in der Einstiegsklasse ist für mich grundsätzlich nicht so interessant. Andere Modelle füllen wohl Marktlücken, wo ich noch nichtmals eine Spalte erkennen kann. Oder es kommt so ein Blödsinn wie eine 3090ti - was soll denn sowas?

Tja und bei den CPUs lese ich noch gerne mit - aber mal ehrlich: für welches aktuelle Programmszenario im Heimanwenderbereich wird denn mehr CPU-Leistung benötigt, als über die bestehende Mittelklasse sowieso schon seit langer Zeit bereitgestellt wird? Die Mehrleistung interessiert da kaum noch, eher Effizienzsteigerung und neue I/O-Standards (wie PCI-E 4.0 / 5.0 oder DDR5 usw.) für bessere Infrastruktur um die CPU "herum" machen noch Appetit.
 
owned139 schrieb:
Die 3090 ist gleichauf mit der 6900XT.
Naja,gleich auf würde ich nicht sagen. Die 3090 hat schon mehr Leistung. Vorallem wenn RT ins Spiel kommt ist die 6900XT um Welten Schlächter.
Ergänzung ()

Chesterfield schrieb:
Verstehe denn Sinn dahinter kaum. Viel Aufwand für eine 3090ti um 8% mehr Leistung zu habe. Und sich mit dem Titel „schnellste Gaming Karte der Welt „ zu schmücken bis in 3 Monaten das Rennen erneut stattfindet…. Kann man machen @NVIDIA, ob man es brauch sei mal jedem selber beantwortet
Wie kommst du auf 3 Monate! Die nächste Generation soll erst Ende Jahr anfang nächstes Jahr ein Release haben.
 
AEonVi schrieb:
Ob sie kommt oder nicht, die 12 Stück die verkauft werden macht es eh uninteressant.
Weisste was das Praktische ist?
Die UVP von 2999€ für die 4090 wirkt dann nicht mehr so kritisch, kaufen die Leute ja eh
Sah man an der ersten Titan was Nividia vorhat und es ist einfach nur zu hoffen, dass die Leute nicht 30-50% mehr UVP schlucken.. die 499€ der 3070 finde ich gut, aber nicht Plötzlich wieder 599€, weil geht ja
 
@Rockstar85

Kann ich dir nur zustimmen, ich erwarte jedoch schlimmes.
Man kann nur hoffen das AMD nicht auch auf den Zug mit aufspringt.
 
Nvidia soll die mal veröffentlichen...Ich freue mich schon auf das Resellen an irgendwelche Nerds ;)
 
@Nico_dtd
Ich mach das seit Titan 1 mit..
Also doch die UVP wird steigen, vor allem weil AMD ja auch die UVP dank TSMC steigern muss.. Und die Marge muss stimmen ;) Ich bin Realist und sage dass die 499€ UVP nicht haltbar sind und wir von 599€ reden werden
 
snickii schrieb:
Was hat denn die Grafikkarte mit CPU lastigen Games zu tun? Und warum sollte die AMD Karte in FHD besser sein wenn sowieso die CPU limitiert?

Ein software sheduling hat in low level APIs Nachteile gegenüber eines hardware shedulers.
Dafür kann der software sheduler Probleme mit den drawcalls in High Level APIs noch künstlich fixen (weshalb NVIDIA auch in DX11, OpenGL,... im CPU Limit gegenüber brilliert).
Software sheduling ist auch einer der Gründe, warum es bei NVIDIA zu jedem neuen release game ready Treiber gibt.
 
  • Gefällt mir
Reaktionen: paccoderpster
[wege]mini schrieb:
McM ist die Zukunft.
Es ist nicht die Zukunft XD. Es ist eine Übergangslösung.
Der Leistungsanstieg ist höher, als der Grad an der die Transistoren schrumpfen. Ergo Chips werden größer und/oder verbrauchen mehr Strom.
Chips könnten auch weitaus größer werden als jetzt, auch 10cmx10cm Chips wären möglich doch das würde die Kosten ins Unendliche bringen. Ein Fehler macht ein Chip kaputt und es ist billiger kleine Chips wegzuschmeißen als Große.
MCM ist hier einfach eine Methode um Geld zu sparen.

Ab einem bestimmten Punkt wird MCM wieder verschwinden, wenn die erwünsche Leistung auf kleinen Chips möglich ist. Es mag vielleicht in 20-30 Jahren sein, aber dann hat man die Leistung einer 3090 im Handy z.b.
Wer weiß in 20-30 Jahren hat vielleicht keiner mehr einen PC Zuhause, sondern nur noch einen VR-Helm XD.
Ich hoffe zumindest das ich die VR-Welt noch erlebe, was man heute in ReadyPlayerOne or Animes sieht...

GERmaximus schrieb:
stimmt,
in allem
Ist die 6900xt jeweils besser.

Einzig bei 4K und raytracing nicht

Wobei alles eine Frage der getesteten Games ist.
Jedoch sind die Tendenzen ja mittlerweile hinlänglich bekannt
Ich spiele in 4k und Nvidia bietet noch DLSS und weitere Features.
Außerdem finde ich den FE Kühler geil XD.
Aber leider sind ja alle Miner Nvidia Fanboys und kaufen die RTX 3000er weg...
 
  • Gefällt mir
Reaktionen: [wege]mini
Vor allem die Preise für die 3090 sind die Tage und vor allem heute stark zurückgegangen, auch wenn sie noch nicht annähernd normal sind (aber was ist heute schon noch normal?). Ich rechne stark mit einer baldigen Verfügbarkeit.
 
Lovelace kommt doch schon im November. Kauft doch keiner im April ne 3090ti ?
Aber 450-500 Watt wird sicher Standart werden..
 
Edith.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Jan schrieb:
Gerüchten zufolge wird Nvidia die TDP der GeForce RTX 3090 Ti auf 450 Watt anheben, was nicht nur im Durchschnitt, sondern insbesondere auch bei den Lastspitzen ganz neue Anforderungen an das Schaltungsdesign stellt.

Zur News: GeForce RTX 3090 Ti: Januar verstreicht ohne die angekündigten weiteren Infos
Ist ja nicht so, dass schon bei Release der RTX 3070/3080 es selbst ein EVGA Supernova GA 850W schwer hatte und es plötzlich zig Meldungen gab, das ein 750W Marken-Netzteil Pflicht sein sollte (Peak-Verbrauch war höher) ..

Die 3080 hatte "bloß" eine MGCP von 320 W, die RTX "nur noch" 220W. Und jetzt sollen es schon 450W sein!?
Wie krank sind die da eigentlich, dass ein aktueller Rechner mal eben ein halbes bis ganzes KW an Leistung schluckt!

TechFA
 
TechFA schrieb:
Ist ja nicht so, dass schon bei Release der RTX 3070/3080 es selbst ein EVGA Supernova GA 850W schwer hatte und es plötzlich zig Meldungen gab, das ein 750W Marken-Netzteil Pflicht sein sollte (Peak-Verbrauch war höher) ..
Hohe Lastspitzen kann ein vernünftiges Netzteil durchaus ab.
Höherwertige Plattformen sind in der Regel darauf ausgelegt, Lastspitzen bis weit über den Nennwert der kontinuierlichen Leistung abzufedern.
Die Angeben dazu lassen sich in den Datenblättern von FSP, Enhance, Seasonic und co ablesen.
Genauso wie die unterstützten peak rise times.

Das bekommen etliche Netzteile schon gut hin.
Dann reichen auch mit OC noch die 650W.
https://www.igorslab.de/geforce-rtx...900k-oc-mit-und-ohne-oc-gegen-11x-be-quiet/2/
 
Coenzym schrieb:
Lovelace kommt doch schon im November. Kauft doch keiner im April ne 3090ti ?
Doch.

Es gab unzählige ebay Kleinanzeigen Panikverkäufer, die Rechnungen präsentierten mit im Juni, Juli und August (!!!) 2020 gekauften 2080Tis, kurz vor dem Ampere "Release" im September 2020.
 
Zurück
Oben