Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4090 und 4080: Custom-Designs fahren schwere Geschütze auf
- Ersteller SVΞN
- Erstellt am
- Zur News: GeForce RTX 4090 und 4080: Custom-Designs fahren schwere Geschütze auf
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.536
Wird auch wohl reichen, je nach restlicher Hardware natürlich. Ich hab nen 750 Watt Netzteil für meine RTX 3080, langt auch mehr als locker. Herstellerangaben waren IMMER übertrieben.hamju63 schrieb:Viele Leute sind der Ansicht, dass da 650W reichen
Auch die anderen Karten alle zu lang.
Die einzige gute Karte unter 33cm und Luftkühlung ist die FE.
Die aber im Nvidia Shop quasi immer ausverkauft sein wird (vermute ich)
Erstmal weiter auf AMD hoffen und dann mal gucken, eilig hab ich es eigentlich nicht.
Die einzige gute Karte unter 33cm und Luftkühlung ist die FE.
Die aber im Nvidia Shop quasi immer ausverkauft sein wird (vermute ich)
Erstmal weiter auf AMD hoffen und dann mal gucken, eilig hab ich es eigentlich nicht.
Gr33nHulk
Commodore
- Registriert
- Mai 2007
- Beiträge
- 4.833
Stimmt schon, man kann sich auch alles so gut wie möglich schönreden, was an sich auch nicht unbedingt verkehrt ist, wenn es dann für einen passt.chr1zZo schrieb:Das Speicherinterface ist vollkommen ausreichen.
Nur DP 1.4 okay
Nur PCIe 4.0. Und der wird aktuell nicht annährend ausgereizt! 5.0 würde hier nix bringen. Und wie viele haben denn bereits 5.0 auf dem MB? Die wenigsten.
Ich finde die Granaten sehr Sexy.
Das diese begrenzten Speicherinterface durchaus die Performance drücken können, kommt natürlich immer darauf an bei was, war schon in etlichen Genrationen davor so.
Neue Gen Boards haben (so gut wie) ALLE PCI-E 5.0, AMD setzt auf 5.0 und Nvidia zieht die Sparschrauben an, ist doch mehr wie nur ein fader Beigeschmack bei den Preisen, die aufgerufen werden, Premium kassieren, aber nur halbgare Technik liefern, super. Ob es (wenn auch in Grenzen) was gebracht hätte, wird niemand jemals erfahren.
Über das Aussehen lässt sich natürlich streiten, mag halt welche geben die sich so einen Kühlklotz ins schön aufgeräumte Case klatschen wollen. Lässt sich aber leider nicht drüber streiten, daß die Teile so schwer dadurch sind, daß man Stützen braucht damit die Dinger nicht abfallen und die Slots oder gar sich selbst beschädigen.....wirklich ganz toll.
Die mickrige VRAM-Bestückung und die 4080 verarsche bleiben ebenso bestehen, auch wenn es einfach ignoriert wird. Wie gesagt diese absolut validen Kritikpunkte, sind zumindest aus meiner Sicht so gravierend, da sie in Relation zu dem aufgerufenen Preis stehen!
Hätte man die 4000er Generation zu einem entsprechend passenden Preis für die gebotene Technik eingeführt, würde die Sache in einem ganz anderen Licht stehen........und warum die Preise so hoch sind, setzt dem ganzen ja nur noch das i-Tüpfelchen an Lächerlichkeit obendrauf -> und genau da sollte der Konsument in der Menge seine Marktmacht benutzen, um solche Machenschaften zu unterbinden, ist eigentlich ein no brainer und selbsterklärend.
andimo3
Lt. Commander
- Registriert
- Juli 2013
- Beiträge
- 1.125
Zu den Kommentaren wie „Stromfresser“
wenn ihr die effizienten Karten wollt, wartet entweder ab, oder kauft euch die RTX3070
ODER: stellt das Power Target herunter. meine 6800XT kann auch 300W aus ihren Anschlüssen ziehen, aber mit einem FPS Lock auf 60 und ‚mittleren Details‘ ist sie dann bei 100W , das wird aktuell bei der WaKü fast ein Passivbetrieb
Aber ich weiß, ihr wollt die höchsten Details bei 4k 144Hz bei passiver Kühlung….
nein, das wird nix
Ich warte gerne die Reviews ab und freue mich immer auf die Sprünge
Was interessant wäre: Leistungsaufnahme, wenn sie nur die gleiche FPS wie ihr Vorgänger liefern muss
wenn ihr die effizienten Karten wollt, wartet entweder ab, oder kauft euch die RTX3070
ODER: stellt das Power Target herunter. meine 6800XT kann auch 300W aus ihren Anschlüssen ziehen, aber mit einem FPS Lock auf 60 und ‚mittleren Details‘ ist sie dann bei 100W , das wird aktuell bei der WaKü fast ein Passivbetrieb
Aber ich weiß, ihr wollt die höchsten Details bei 4k 144Hz bei passiver Kühlung….
nein, das wird nix
Ich warte gerne die Reviews ab und freue mich immer auf die Sprünge
Was interessant wäre: Leistungsaufnahme, wenn sie nur die gleiche FPS wie ihr Vorgänger liefern muss
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.536
Das hat sehr viel mit Gaming zu tun. 4k @ 144Hz @ so ziemlich ultra Details kosten je nach Game nunmal extrem viel Leistung. Ich habe "nur" 3440x1440 und meine RTX 3080 ist mir zu lahm...ripa schrieb:Da hat nichts mehr mit Gaming zu. Das ist nur noch Narzismus für Signaturen.
Dark_Soul
Lt. Junior Grade
- Registriert
- März 2018
- Beiträge
- 458
Du meinst so wie es auch unmöglich ist jedes Jahr ein neues iPhone oder Samsung Handy für über 1000 Euro zu kaufen?Joker* schrieb:Wenn die "Mehrheit" das dann auch bezahlen kann... was bei der derzeitigen Weltlage wieder unwahrscheinlicher (wenn auch nicht unmöglich) ist.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Es ist irgendwie auch Entertainment pur 🤣 Steve muss sich echt zurückhalten manchmal, ernst zu bleiben
Pisaro schrieb:Herstellerangaben waren IMMER übertrieben.
Naja, der 08/15 User hat halt nicht zwingend die besten Netzteile verbaut.
Wir haben das doch hier auch quasi täglich, dass man im Grunde die Hände über dem Kopf zusammenschlagen will, bei dem, was Leute glauben, was das wichtigste Teil in einem PC (die Stromversorgung) können muss oder eben nicht.
catch 22
Rear Admiral
- Registriert
- Mai 2019
- Beiträge
- 5.631
Nur mal so am Rande...Tomi_92 schrieb:mein Monitor hat G-Sync auf das ich nicht verzichten möchte grad bei Singleplayer Games.
wenn das DLSS 3.0 Argument nicht wäre / dir FSR reichen würde, wäre es beinahe sinnvoller, den alten Monitor über die Bucht los zu treten und einen neuen tollen Bildschirm ohne G-Sync / mit Adaptive / FreeSync zu holen, selbst wenn wir von einem UHD@144Hz Teilchen reden, da der Aspekt G-Sync, wie damals von vielen prognostiziert, dich auf Gedeih und Verderb an Nvidia kettet und somit für mindestens 5 bis 7 Jahre (so lange hält ein Monitor eigentlich ohne Probleme) für teure Folgekosten sorgt.
Da hat Nvidia schon den geilen proprietären Schindluder getrieben, der auch noch zu oft auf die Leute erfolgreich gewirkt hat....
Zuletzt bearbeitet:
Noofuu
Cadet 3rd Year
- Registriert
- März 2022
- Beiträge
- 46
Auch wenn ich mir die leisten kann möchte ich das nicht. Meine 2070s neu unter 500€ die Preise sind nicht unverschämt sondern pervers. Gaming wird auch immer schlechter und anstatt besser und effizienter zu werden könnte man meinen das es wie bei der Auto Industrie ist erst umdenken wenn es zu spät ist.... ich bin da raus wenn ich den verbrauch lese könnte ich kotzen! Können die nicht mal daran arbeiten das Gaming Effizienter wird was den Strom verbrauch angeht?
Ich habe manchmal schon ein schlechtes Gewissen wenn ich mit meiner 2070s zocke vom verbrauch her... aber es gibt immer leute die sich auch die kacke schön reden werden.
Ich habe manchmal schon ein schlechtes Gewissen wenn ich mit meiner 2070s zocke vom verbrauch her... aber es gibt immer leute die sich auch die kacke schön reden werden.
-=[CrysiS]=-
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.641
Die ganze Aufmachung ist natürlich ziemlich beeindruckend und was sind das für Klopper geworden
Und sieh trauen sich mal neue Designs.
Die Variante von Zotac sieht sehr gut aus mit diesen Rundungen
Und sieh trauen sich mal neue Designs.
Die Variante von Zotac sieht sehr gut aus mit diesen Rundungen
Flynn74
Lieutenant
- Registriert
- Juni 2005
- Beiträge
- 936
Also ich freu mich meine 3090 in Rente schicken zu dürfen - und...da ich ja vernünftig bin ...werd mich wohl auch wieder für die 4090 TUF Gaming entscheiden. Mit meiner 3090 TUF bin ich extrem zufrieden. Das letzte Främchen Leistung mit der STRIX sind mir ein paar hundert Euro Aufpreis glaub dann doch nicht wert. Denn - ich erwähnte es ja schon - ich bin vernünftig!
Jedoch mein Netzteil schick ich glaub ich besser in Rente. Nach zwei Jahren hab ich da irgendwie Bauchschmerzen. Taugt denn das Thermaltake Toughpower GF3 1200W was? Denke ein echtes ATX 3.0 Netzteil macht schon Sinn...vielleicht rüste ich ja in Kürze auch CPU & Co. nach. Hab aber keine Ahnung wie Thermaltake qualitativ einzuordnen ist...echte ATX 3.0 Netzteile gibts ja bisher kaum.
Im Ernst Leute. Alle zwei Jahre die gleiche Diskussion ála "Lack gesoffen". Lasst den Leuten doch die Freiheit und den Spaß mit ihrer Kohle zu machen was sie für das Richtige halten. Jeder hat da seine eigenen Prioritäten.
Was mich angeht: solange das Geld noch fürs Katzenfutter reicht werd ich auch weiterhin Spaß an neuer Hardware haben.
Jedoch mein Netzteil schick ich glaub ich besser in Rente. Nach zwei Jahren hab ich da irgendwie Bauchschmerzen. Taugt denn das Thermaltake Toughpower GF3 1200W was? Denke ein echtes ATX 3.0 Netzteil macht schon Sinn...vielleicht rüste ich ja in Kürze auch CPU & Co. nach. Hab aber keine Ahnung wie Thermaltake qualitativ einzuordnen ist...echte ATX 3.0 Netzteile gibts ja bisher kaum.
Im Ernst Leute. Alle zwei Jahre die gleiche Diskussion ála "Lack gesoffen". Lasst den Leuten doch die Freiheit und den Spaß mit ihrer Kohle zu machen was sie für das Richtige halten. Jeder hat da seine eigenen Prioritäten.
Was mich angeht: solange das Geld noch fürs Katzenfutter reicht werd ich auch weiterhin Spaß an neuer Hardware haben.
Aha.haasgo schrieb:Was hier viele nicht verstehen wollen ist, dass Nvidia nicht die 0815 Gamer haben will bzw braucht. Billige Karten und alles was damit zusammenhängt, ist einfach nicht lukrativ. Siehe EVGA. Es wird sich auf solvente Kunden eingeschossen und dazu gehören nur die obersten 10% der Gamer
Deswegen haben sie auch erst kürzlich ne superduperschnelle GTX 1630 gelauncht.
Verstehe
LG N.
Außerhalb von Deutschland / Europa gibt es keine Energiekrise. Wäre bei uns der Strompreis nicht an den Gaspreis gekoppelt, wär' der Strom auch hier nicht so teuer => Das Thema ist anderswo kein Thema. Vielleicht in Richtung "wie können die nur 1000W verbraten?!?!". Und zur Preisgestaltung allgemein, das sehe ich genauso. Die Entwicklung ist absurd, aber betriebswirtschaftlich nachvollziehbar. Es wird bezahlt, also alles richtig gemacht. Wartet mal AMD ab, wartet mal die leeren 3000er Lager ab, dann können wir reden. Jetzt ist das noch zu früh.
flug_rosetto
Lieutenant
- Registriert
- Sep. 2012
- Beiträge
- 686
das einzige was mich interessiert, welche modelle brauchen und haben eine 2x8 pol adapter.
- Registriert
- Jan. 2007
- Beiträge
- 23.267
Okay wenn Ich das alles so lese werde ich vielleicht doch nicht auf 4090 umsteigen. Bin jetzt noch bei einer 1080Ti und wollte dem i7-12700k was gönnen. Aber dann noch mit Adapter beim NT arbeiten und so da überlege Ich mir ob Ich nicht doch versuche eine 3090 zum Sparpreis zu ergattern. Ich werde mir das alles in Ruhe ansehen und dann entscheiden.
Was CB beim Test unbedingt beachten sollte ist wie sicher diese Monster im Slot sitzen. Ich denke besonders der übergang zwischen PCB und der Blende die Typischerweise nur mit Zwei Schrauben fest gemacht ist macht hier die Schwachstelle aus. (Sofern der Kühler nicht mit dem Blech verbunden ist). Interessant wäre auch zu wissen ob die Hersteller Stützen mitliefern.
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 1.822
- Antworten
- 633
- Aufrufe
- 77.014
- Antworten
- 1.733
- Aufrufe
- 181.661
- Antworten
- 295
- Aufrufe
- 42.243
- Antworten
- 681
- Aufrufe
- 94.932