News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Firstdim schrieb:
@PrinceVinc ich bin davon ausgegangen, dass du vorher einen brauchbaren NT hattest.
Über die Option mit Adapter habe irgendwie hier in Forum diskutiert, da ich gleich die gleiche Gedanken hatte. Anscheinend hat sich besagter User geirrt...
Mein Altes System hatte 500W, jetzt denke ich aber langsam wenn ich bei 2x 8 Pin GPU's bleibe wenn ich ne neue GPU kaufe hätte ich mir auch die 10€ sparen können.

Es sei denn das PCie 5.0 GPU's nur mit dem neuen Stecker betrieben werden können.

Werde mit 12700 und RTX3080 oder ähnlich die nächsten 8 Jahre wohl auch auskommen.
 
  • Gefällt mir
Reaktionen: Firstdim
Die gute Nachricht ist die 16A Steckdose schafft ca. 3500W Also haben wir noch genug Luft nach oben 🙃
 
  • Gefällt mir
Reaktionen: edenjung, Darkseth88, Firstdim und eine weitere Person
Deimonos schrieb:
Andererseits kann auch Taktik sein, schön die TDP hoch ansetzen um dann beim Release mit der Effizienz zu schocken.
Würde aber nicht helfen wenn man immer noch den neuen Anschluss und ergo neues Netzteil zwingend bräuchte, obwohl das alte genug "Power" hätte.

Gibt ja genug Leute die 1000W und mehr benutzen und sich dann trotzdem neues kaufen müssten nur wegen dem blöden Stecker...
 
Zuletzt bearbeitet:
Das zieht nicht. Siehe


Man achte auf den Verbrauch und wie wenig schneller die 3080 ist. Nun geht man her und jagt 300-350 Watt in die 2080TI da gehen je nach Titel 10-15% mehr. Bei der 3080 5% mit 450 Watt. Beide GA 102 Chip.

Ampere ist lächerlich. Das ist nur 1 beispiel. Siehe auch 2060S zur 3060 5% unterschied bei ähnlichem verbrauch. Ja nimm die 2060 6gb 15-20% unterschied bei mehr verbrauch.

Das ist grottenschlecht.


Früher gabs 1060 Leistung der 980 bei erheblich weniger Verbrauch. 60 Karte mit 80 Leistung der Vorgeneration bei WENIGER verbrauch.

Lasst euch nicht von Nv oder Amd das Gehirn waschen. Ohne Dlss wäre Turing und Ampere mitunter die schlechtesten gens ever.

Nochmal 980Ti 250 Watt zu 1080TI 250 Watt 70% mehr Leistung.

1080TI 250 Watt zu 2080TI 260 Watt 35%-50% je nach Api bei verdopplung des preises bei Vram Stillstand.

2080Ti 250Watt zu 3080/90 320/350 Watt 20-50% mehr Leistung, bei teilweise weniger vram dafür wieder vernünftiger Preis bei der 3080. Dafür 1550€ Uvp als möchtegern Titan die von der Titan Rtx geschlagen wird da eine echte Titan Karte......

Das obwohl kaum schneller als das um mehr als die hälfte billigere 3080.

Resümee; Nvidia hat top Leute im Marketing die meisten glauben Rtx=RT und Nvidia der Erfinder. Konsumenten zu blöd und oder zu viel Geld. Die mehr Hardware spielen als Spiele.
 
  • Gefällt mir
Reaktionen: eXe777, Geringverdiener, edenjung und eine weitere Person
cunhell schrieb:
Trotzdem ist es vollkommen sinnfrei, allen eine Wärmepumpe vorzuschreiben, wenn sie die Heizug moderisieren. Die funktioniert nur dann effizient und energiesparend, wenn das Haus eine Fußbodenheizung hat. Und ein älteres Haus neben einem Vollwärmeschutz auch noch komplett mit einer solchen auszurüsten ist von den Kosten her ein Alptraum. Und wenn ich normale Heizkörper habe, wird eine Wärmepumpe kostenmässig zum Geldgrab da man mit Strom zusätzlich heizen muss. Das wird dir jeder seriöse Fachmann bestätigen.

Cunhell
Nein die funktioniert auch ohne Bodenheizung effizient 🤷‍♂️
Und Strom lässt sich nachhaltig produzieren, Gas nicht 🤓
 
  • Gefällt mir
Reaktionen: Blende Up
Riplex schrieb:
Wie soll man so eine Leistungsaufnahme in einen "normalen" Gaming PC vernünftig mit Luft kühlen ?
Na mit dem neuen Kühler dürfte das kein Problem sein. 😁
 

Anhänge

  • 03BoUhy8xMqGogBqhHxhyDC-2..v1617290043.png
    03BoUhy8xMqGogBqhHxhyDC-2..v1617290043.png
    2,2 MB · Aufrufe: 226
  • Gefällt mir
Reaktionen: Gimli2k, Riplex, edenjung und 3 andere
Draco Nobilis schrieb:
Milliarden Menschen werden vor Desertifizierung und steigenden Meeresspiegel fliehen, noch vielleicht 30 Jahre dann gehts los.
In Portugal ist es bereits schon der Fall, siehe diese Doku von Arte.

Ja, es sind nur maximale Leistungsaufnahmen, aber schöne finde ich das trotzdem nicht. In Fertig-PCs gibt es ja bereits Vorgaben in Kalifornien zum Beispiel, wie viel ein PC dann maximal verbrauchen darf. Vieleicht muss sowas auch für einzelne Teile vom PC her.

Meine 3090 ist undervoltet und das werde ich mir auch bei zukünftigen Karten immer mindestens anschauen bzg. Sinnhaftigkeit (wbeo das wohl eh zu 99% Sinn macht).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Draco Nobilis
PrinceVinc schrieb:
Werde mit 12700 und RTX3080 oder ähnlich die nächsten 8 Jahre wohl auch auskommen.
Ich, wenn das stimmen würde...😩
Bin meine Vega nur deswegen los da ich für die 500€ bekam ( noch) und so kostet mich die 6900 "nur" noch 800€.
Ich weiß es nicht...
Und verbrauchmäßig läuft sie mit 250W Limit und um 21000 Punkte in GPU time Spy.
Die ist also nicht schlechter als meine nicht getunnte Vega.
 
DiamondDog schrieb:
Nein die funktioniert auch ohne Bodenheizung effizient 🤷‍♂️
Und Strom lässt sich nachhaltig produzieren, Gas nicht 🤓

Tun sie nicht, sie heizen dann hauptsächlich mit Strom.

Und dann kann man sich auch gleich für jeden Raum eine RTX 4090 als Heizung kaufen - ist immer noch billiger, als eine Wärmepumpe :D
 
Weiß man eigenlcht außer der kolportierten TGP noch irgendwelche informationen im moment?

Weil evtl hat NVidia einfach aus den letzten jarhen gelernt und gesehn, dass es extrem viele enthusiasten mit extrem viel geld und zahlungsbereitschaft gibt.

Möglich wäre es ja, dass sich das ganze nummern gefüge nach unten verschiebt (unter der XX60 ist im moment ja nichts angesetzt oder?)

Sprich der "nachfolger" der 3080 (leistungs/preislich/tpg) wandert in der nummerierung runter auf zb die 4060 (dann sind imemr noch genug platz nach unten) und "oben rum" rücken dann die "abfälle" der KI/Datacenter chips nach.

Denn irgendwie hab ich noch im hinterkopf dass die 4000er ja auch deutlich schneller werden sollen, weil wieder bei TSMC gefertigt werden soll, und deren prozess ist ja deutlich effizienter als die Samsung chips. Da passt dann das gerücht mit der dueltihc höheren leistugnsaufnahme nur, wenn die performance extrem steigt.
 
  • Gefällt mir
Reaktionen: Firstdim
Die armen Eltern die sich hier nicht auskennen und sich wundern warum der Strom"verbrauch" im Haushalt so extrem hoch ist. 😊
 
  • Gefällt mir
Reaktionen: Blende Up und Firstdim
@M1ch1
Ja, deswegen wird die schwächste der 4000-er Reihe die Leistung einer 6900 haben, aber
bei niedrigeren Verbrauch.
Deswegen bin hier für Regulierungsbehörde der EU, hätten die Hersteller nach Vorgaben handeln müssen, wären quasi die aktuelle Karten mit künftigen Chip implementiert und die nächste als kommende 4000-er mit übernächsten Chip, dann stimmt auch die Effizienz.
 
gustlegga schrieb:
Ob das dann ökologisch sinnvoll ist, das ist halt eine andere Frage.... aber vllt sieht man das ab einem gewissen Alter nicht mehr so aus der Ego-Perspektive....
Bitte gerne mal auszuprobieren:

Dieser Text bezieht sich nicht explizit auf dich, du hast aber die "CO2-Rechner" ins Spiel gebracht.

Man sollte auch irgendwie mal auf dem Teppich bleiben, das hier ist ein Technikforum und dieses ständige Anprangern von Leuten, die bereit sind 800W TGP zu akzeptieren ist sowas von sinnlos, vor allem ohne ihre sonstigen Umstände zu kennen (winzige Wohnung oder Solaranlage z.B.).

Und ich sage jetzt auch nicht, das man die kleinen Schritte ignorieren sollte, aber wenn man wirklich etwas für den Planeten tun möchte, dann ist bei fast jedem viel größeres Sparpotenzial (TONNEN VON CO2) vorhanden als auf ~1-2 kWh mehr pro Tag zu verzichten (im Vergleich zum Gamer mit Midrangehardware).

Ganz ehrlich, wir reden hier über etwas in der Größenordnung wie lange Haare vs. kurze Haare, ist eine Frau/Mann ein besserer Mensch, weil sie/er sich für einen Kurzhaarschnitt entschieden hat und so Wasser + Haarwaschmittel + Strom spart? Nicht zu vergessen man muss bei kurzen Haaren auch weniger saugen und Haustiere omg, don't get me started...

Für mich ist bei ~350W Schluss, weil ich keine Lust auf die Abwärme im Sommer habe.
 
  • Gefällt mir
Reaktionen: GERmaximus, MOECHTEgernAPFE und Newbie_9000
CoolerTypderTyp schrieb:
Mit meiner 2080 hab ich alles richtig gemacht 🤓
Für 700€ weniger vram = 1080TI? Obwohl dann die 2070s kam für 499? Ich weis ja nicht.

1080 TI käufer haben unwissend alles richtig gemacht. Oder 5700XT für 329€ mit 2 spiele eher sale angebote aber war auch super.

Ich finde es traurig wie Stagnationen gefeiert werden.

Selbst wenn die 4090 1.8 mal schneller ist wenn soll das nach 2 lausigen gens beeindrucken das bei 600 Watt? Custom bis 800Watt jede wette. Wieder Marketing am werk.

Das für Videospiele wohlgemerkt nicht Forschung.


Erinnert sich noch wer an 980TI abverkauf? 250-350€ wahnsinn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, Harpenerkkk und Enigma
Pitman1 schrieb:
Unter 100 Watt schon klar. Und die nächst Generation unter 50 Watt
Hier mal eine Übersicht bei 720p. In höheren Auflösungen hat die CPU ja bekanntlich weniger zu tun.
2022-03-13 12_16_18-Intel Alder Lake im Spiele-Benchmark-Test_ Gaming-Benchmarks mit RTX 3090,...png
 
  • Gefällt mir
Reaktionen: Innocience, GERmaximus, Onkel Föhn und 2 andere
Pchelp88 schrieb:
Ich finde es traurig wie Stagnationen gefeiert wird.
Kann ja auch was gutes sein das bedeutet man muss seltener was neues kaufen.
Ich hab jetzt nach 8 Jahren gemerkt das meine CPU bei neuen spielen an ihre grenzen kommt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Enigma
DarkTaur schrieb:
/OT
In der Rolle war ich vor ein paar Jahren, da hatte mein Sohn eine PS(?)3 am Start. Jahresverbrauch 3Personen 6400kwh. Mittlerweile sind wir bei 3000kwh/y (wenn ich das Homeoffice abziehe 🤷‍♂️) Das war aber nicht alles mein Sohn 😆
/OT
 
  • Gefällt mir
Reaktionen: Bright0001
Zurück
Oben