News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Ich finde es bemerkenswert.
Öko ist ja schon länger ein Thema, was ja auch ne nette Sache ist.
Jetzt wir schon länger davon geredet, dass man Überall sparen soll.
Jedes KW/H zählt.
Dann lese ich die Daten dieser Karten.
Das passt irgendwie nicht. Die Preise sind sowieso nicht mehr tragbar.
Ich (für mich) bin einfach nicht bereit, derart viel Geld für Hardware auszugeben,
und Geld habe ich durchaus. Aber da werden die Kunden zeigen, ob man mit diesen Preisen
durchkommen wird.

Ich habe bewusst einen 1080p Monitor gekauft und somit 2x 1080p im Einsatz.
  • Ich bin glücklich damit.
  • Es spart echt Energie, somit Rohstoffe
  • Es spart automatisch auch Geld. Wobei dieser Aspekt nur eine leichte Gewichtung hat.

Der Verzicht ist in anbetracht der Vorteile ohne Probleme hinnehmbar.
 
  • Gefällt mir
Reaktionen: Hydrogenium, Zwirbelkatz, MelbarKasom und 3 andere
Bzgl. der Netzteil bzw. Adapter "Problematik", was haltet ihr denn von diesem Kommentar von dem User "namco":

http://disq.us/p/2r3rwd4
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: B.L. Swagger
cyberpirate schrieb:
Ich war fast bereit im Dezember eine 3090 zu kaufen. Zum Glück habe Ich das dann nicht gemacht un eine gebrauchte 1080Ti als Nachfolger für meine 980Ti zu kaufen.
Ach Du schade, Du bist ja vollkommen veraltet. 😦😁 Aber Dein Beispiel zeigt es ja deutlich, die wenigsten benötigen wirklich die Power von Ada GPUs, und Ampere ist nach wie vor eine gute Wahl für Spieler, und bald deutlich günstiger.
 
  • Gefällt mir
Reaktionen: dideldei, TigerNationDE und Laphonso
Soviel mehr leisten die 40er garnicht. Lass es 25% Leistungszuwachs sein, die Diagramme sind wie immer Blender. Hinzu kommt der erhöhte Stromverbrauch für die Mehrleistung.
Ich bleibe auch bei 1080p.
 
  • Gefällt mir
Reaktionen: Cordesh
Laphonso schrieb:
Das ist ein Irrtum und mich amüsiert diese Scheuklappe zunehmend.
Siehe die Umfrage, HIER, heute.
An was machst du fest, dass es ein Irrtum ist?
Ab welcher Anzahl von Spielen ist DLSS bzw. ab welcher Verbreitung von RTX-fähigen Karten und Spielen ist diese Aussage kein Irrtum?
Diese Umfrage, da nicht repräsentativ, sagt überhaupt nichts aus. Oder wer glaubst du, wird überproportional in einem RTX 4090 thread zu finden sein?
 
FGA schrieb:
Soviel mehr leisten die 40er garnicht. Lass es 25% Leistungszuwachs sein, die Diagramme sind wie immer Blender. Hinzu kommt der erhöhte Stromverbrauch für die Mehrleistung.
Ich bleibe auch bei 1080p.
Bei 25% mehr Leistung wäre der Strommehrbedarf aber unter diesen 25% und somit wäre die Karte effizienter und sparender ;)
 
Ich behalte meine RTX 3090 bis die nächste Generation RTX 5080 kommt, hoffentlich hält meine 3090 noch 2 Jahre.
 
Ich hole mir die Palit Rtx 4090 Gamerock. Ich hoffe nur das ich eine zum Release bekomme.
 
  • Gefällt mir
Reaktionen: Slipknot79
Soll NVidia mal machen. Ich schaue mir erstmal die kommenden AMD Karten an und dann werden wir ja sehen, wo man das bessere Paket aus Leistung, Features und Preis bekommt.
Der Stromverbrauch spielt ja ebenfalls noch eine große Rolle.

Da ich aber mit der Leistung meiner RTX 2070 Super noch absolut zufrieden bin und in den letzten 2 Jahren eh mehr ältere Titel aus meinem Pile of Shame gespielt habe, brauchts auch nicht zwingend eine neue Karte.
Derzeit sollte man sein Geld wohl auch eher etwas zusammenhalten und nicht für solche Luxusgüter rauswerfen.
 
GreatEvil schrieb:
Nvidia hat ja, mit Nachdruck, deutlich gemacht, das alles andere als die 40XX Karten ab 12.Okt. nur noch Elektroschrott ist.
Wie kommst du darauf? DLSS 2.X wird weiter entwickelt und jedes Spiel das DLSS 3 kann wird auch DLSS 2.X Support haben, nur halt ohne "Frame generation".

Was anderes können sie auch nicht machen. Bis DLSS 3 fähige Karten einen nennenswerten Marktanteil haben wird es sicher 2-4 Jahre dauern.
 
Die ganzen 4000er Karten interessieren mich nach der Präsentation mal zunächst gar nicht.
AMD kommt in den nächsten Wochen mit der RX7000 um die Ecke und dann mal schauen wie die Sachlage ist.
Bei den Preisen und dieser offensichtlichen Veräppelerei mit einer falschen 4080 schaue ich mir die Roten auch dieses Jahr wieder ganz genau an.
 
  • Gefällt mir
Reaktionen: Hydrogenium
  • Gefällt mir
Reaktionen: dideldei
Sun-Berg schrieb:
Könntest du den Beitrag zitieren?

You are so incorrect its not even funny. 600w is the TOTAL power. For the NVIDIA PATENTED 12VHPWR which literally came out with the 3000 series, which has SIX 12v rails/wires and 6 ground rails/wires, that would mean 600/6=100w per wire. Which divided by 12 volts would mean 8.34 amps per wire. The "spec" according to Nvidia is good up to about 9 amps or slightly higher. Turn around and look at a single pci-e 8 pin connection. It has 3 power and 5 ground wires. Guess what? put TWO 8pin together which is what current adaptors do, and you now have 6 power wires and 10 grounds wires. That's more than the 12VHPWR cable standard in terms of grounds, and same amount of connections for power.... both specifications are using 18 gauge wire. PSU's use 18 gauge and the Nvidia 12VHPWR standard uses 18 gauge. There is literally no DIFFERENCE.

Now go look at power charts. THREE FEET of 18 gauge wire is good for up to 15 amps of power. 15 amps times 12 volts equals 180 watts. That means a SINGLE wire in the 8 pin pci-e psu standard is capable of 180 watts on the "high" end. And with THREE total power wires, that would mean 540 watts per single 8 pin cable.... EVEN IF WE PLAY CONSERVATIVE to be save, you could push 10 amps through that wire safely. 10 amps times 12 volts is 120 watts per wire. Three power/positive wires in a 8pin connection means 360 watts per cable. TWO cables would mean 720 watts for two cables.

What people DONT realize is current GPU's generally have 2-3 8pin or combo 8pin+6pin because ONE is being used to drive the GPU chip itself and the other is being used to handle everything else on the board. Higher end cards have 3 for redundancy as many times they will tell you "you can use just two of the three and still get full performance."

So lets use some common sense here. IN REALITY the 12VHPWR NVIDIA PATENTED standard has been around. Its already out with 3000 series founders cards. Magically its an issue? YES I understand that current 3090's are rated 350w and can use up to 450w, which is a little shy of 600w of the 12VHPWR standard.... But to claim newer gpu's are going to ruin those adaptors is bullshit.

NVIDIA COULD NOT get power supply companies to adopt their 12VHPWR standard. Because it had "nvidia" written on it. EVERYONE AND THEIR MOTHER, and even this very website, when talking about the 12VHPWR standard back before the 3000 series launched, cried saying "why do we need a new power standard, this is stupid, I am not upgrading my PSU simply because Nvidia is using the 12VHPWR on their founders edition cards, people can just buy AIB cards with typical power connections...."

EVGA dropped Nvidia.... I bet you ONE of the MANY reasons, was Nvidia is trying to force AIBS to adopt the 12VHPWR standard. IF (and its a big if) we see AIBs using the 12VHPWR connection, then we will know for a fact that is ONE of the reasons EVGA pushed back against Nvidia. With basically only 1 to 5 PSU's in total of the 1000's you can buy having 12VHPWR connections natively, now being called "pci-e 5.0", buying a 4000 series card will be harder because now you have to buy the gpu AND a new psu.... especially with news articles like this one above lying to people saying their cable adapters gonna start fires.....

nvidia is using TWO marketing tactics. The first, scare tactics. "your adapter will catch fire" and secondly "marketing lies" by claiming the 12VHPWR is a pci-e 5.0 standard, when in reality it has NOTHING to do with pci-e 5.0.... AMD is being caught up in this news bullshit claiming their next gen gpu's wont be pushing a lot of power because the pci-e 5.0 cable standard isn't readily available yet, and they want to wait to push power usage until the pci-e 5.0 cables are more mainstream. WRONG. anyone using the NVIDIA PATENTED cable standard has to PAY Nvidia to use it. That means PSU brands have to pay nvidia, and then AMD would have to pay NVidia to use it.... Reminds me of G-sync, its literally no different than adaptive sync or freesync, but they force you to buy Nvidia branded gpu's to use it. And not only do users have to buy Nvidia gpu's to use full g-sync, but monitor makers have to PAY nvidia to put their "chip" in the monitor to run g-sync.... insanity. this is all about Nvidia taking over the industry. And I guarantee EVGA was the first to push back.

I mean imagine, NVidia will only let you use ONE 12VHPWR connection, meaning you are limited to 600w. Meanwhile you could have used THREE 8pin pci-e connection that we already have, and allow anywhere between 1080 and 1620 total watts (using the same math I wrote above, just multiplying one cable to 3 cables total).

THE CLAIM that a single 8pin connection is only good for 150w, is pure insanity. MORE THAN LIKELY its the BACK END of the PSU that is limiting a how much power can be drawn from a single wire and thusly the cable as a whole. 150w divided by 3 wires is 50w per wire. 50w divided by 12volts = 4.2 amps (round up obviously, 4.16666667). That isn't even 5 amps per wire. We KNOW FOR A FACT that 18 gauge wire, is capable of 15 amps on the high side. They could easily push the SAME amps that the 12VHPWR standard does (about 9 amps) safely. ALL these news articles are FAKE NEWS. probably paid for by nvidia.
 
  • Gefällt mir
Reaktionen: owned139, Shinigami1 und Sun-Berg
Lors schrieb:
Bzgl. der Netzteil bzw. Adapter "Problematik", was haltet ihr denn von diesem Kommentar von dem User "namco":

http://disq.us/p/2r3rwd4
Also ich sehe auch keine Problematik mit den 3 oder 4 8pin Kabeln die an die Karten müssen.
Man darf nicht vergessen das die natürlich auch gleich am besten die ATX 3.0 Netzteile an die Enthusiasten verkaufen wollen ;)
 
Seppuku schrieb:
An was machst du fest, dass es ein Irrtum ist?
Ist das eine ernste Frage?

Weil einige der größten Gaming Franchises der Welt und einige der bekanntesten global seller wie Call of Duty, Battlefield, Fortnite, Witcher 3 Next Gen Remake, F1, Tomb Raider, Mincecraft, Forza, Hitman, Dying Light, Cyberpunk, Doom, Spider Man, World of Warcraft, Far Cry, Resident Evil Raytracing haben?

Diese Liste alleine beerdigt die Debatte schon. Raytracing ist längst eine Mainstream Option im AAA Games Grafiksetting.

Also ja, 2018 konnte man noch spekulieren; im nun kommenden - fünften - Jahr von Raytracing Chips auf Gaming GPUs ist das einfach nur noch Quatsch zu glauben, Raytracing spielt "keine Rolle" lol . Gibt halt Likes der Nvidia Hater Front. Ist dennoch albern.

Und wenn Dir das nicht reicht:
AMD war gezwungen, auf Raytracing und DLSS zu antworten mit eigenen Lösungen.Und hat sogar Raytracing Games gesponsored wo DLSS ausgeschlossen wurde, welche Ironie :D

Warum haben sie das gemacht, wenn das doch "keine Rolle" spielt. ;)

Q.E.D.
 
Zuletzt bearbeitet:
Wenn die PCI-SIG offiziell Bedenken äußert über den Einsatz der Stromadapter, ist das kein Trick um mehr Netzteile zu verkaufen. Aber vielleicht mögens manche auch gern feurig.
Bin vielleicht auch vorbelastet, bei mir hat vor einiger Zeit so ein chinesischer Molex-auf Sata Adapter Feuer gefangen, nachdem der Netzteil-Lüfter ausgefallen war.
 
Liest sich aber nicht wirklich so was die denen antworten. Liest sich etwas nach Clickbait wie es wccftech leider oft macht und daher in Foren wie ERA ne zeit lang nicht gerne gesehen wurde als link.
News haben die ja auch gerne mal geklaut ;)
Aber seit die auch im ERA posten sind sie schon besser was das angeht.
 
Also das sieht schon bedenklich aus, da kann man nur hoffen, dass die 4090 User ein neues 1200W NT mit PCIe Gen 5 Anschluss gleich mit kaufen. Sonst könnte es IHMO ziemlich teuer werden. Und vlt. auch Menschenleben kosten.

jayztwocents-seriousl5ae6y.png
 
  • Gefällt mir
Reaktionen: mtheis1987
Da sich viele Käufer an die hohen Preise "gewöhnt" haben gehe ich mal davon aus das die neuen Karten auch fleissig gekauft werden. AMD wird deswegen auch nur latent unter den neuen Nvidia Preisen einsteigen, wenn überhaupt, die 1000€ für eine gehobene Midrangekarte dürften sich etablieren, fürchte ich.
 
Zurück
Oben