News GPU-Gerüchte: Leaks zu GeForce RTX 4000 sollen mehr Substanz erhalten

Thepunisher2403 schrieb:
Hatte Glück als ich letztes Jahr im September zu einem etwas billigeren Anbieter mit 2 Jahren preisgarantie gewechselt bin
Wobei viele Anbieter in Deutschland mittlerweile die Preisgarantie als Witz erscheinen lassen - da wird munter der Preis verdoppelt, wegen "höherer Mächte".
Bullshit, wir haben ja keinen schwankenden Stromverbrauch als Privatverbraucher, da hätte man die Liefermengen bereits letztes Jahr fix einkaufen können. Aber nein, die wollten halt mehr Gewinn mitnehmen und Strom günstig am Spotmarkt kaufen wenn er sinkt.

Übrigens läuft die Umlage und was unsere Politiker derzeit besprechen ohnehin neben etwaigen Preisgarantien, weil sie nicht dem Preis zugehörig sind, sondern "extra". Sprich: die Preisgarantie wird mit Hilfe der Politik ausgehebelt.
Ob man das gut findet oder nicht, sei jedem selbst überlassen, ich wollte nur anmerken dass Preisgarantien derzeit nix wert sind.
 
TenDance schrieb:
Wobei viele Anbieter in Deutschland mittlerweile die Preisgarantie als Witz erscheinen lassen - da wird munter der Preis verdoppelt, wegen "höherer Mächte".
Bullshit, wir haben ja keinen schwankenden Stromverbrauch als Privatverbraucher, da hätte man die Liefermengen bereits letztes Jahr fix einkaufen können. Aber nein, die wollten halt mehr Gewinn mitnehmen und Strom günstig am Spotmarkt kaufen wenn er sinkt.

Übrigens läuft die Umlage und was unsere Politiker derzeit besprechen ohnehin neben etwaigen Preisgarantien, weil sie nicht dem Preis zugehörig sind, sondern "extra". Sprich: die Preisgarantie wird mit Hilfe der Politik ausgehebelt.
Ob man das gut findet oder nicht, sei jedem selbst überlassen, ich wollte nur anmerken dass Preisgarantien derzeit nix wert sind.
Selbst wenn die preisgarantie fällt dann habe ich ein sonderkündigungsrecht zwecks höherer preis und Wechsel zu meinem grundversorger zurück
Der hat ebenfalls sehr niedrige kWh Preise

Wie gesagt is halt von Region zu Region unterschiedlich...
Hab da aber keine Sorgen
 
Das monatelange Spekulieren und Gerüchte raushauen ist doch Volkssport, um im Gespräch zu bleiben und Klicks zu generieren.
Der einzige, der auf der Strecke bleibt, ist der interessierte Anwender, der wirklich etwas erfahren will.
Alle anderen schreiben weiterhin fleißig voneinander ab und freuen sich über Pseudo-Aktivität. ;)
 
  • Gefällt mir
Reaktionen: Coeckchen und Tagesmenu
mcmurphy100 schrieb:
Das monatelange Spekulieren und Gerüchte raushauen ist doch Volkssport, um im Gespräch zu bleiben und Klicks zu generieren.

Ich finde es eigentlich nicht verkehrt, wenn man sich auf etwas freut und im Vorfeld viel spekuliert wird, wenn CB (in sehr geringem Umfang, da wenig über Leaks/Gerüchte berichtet wird) und andere Seiten davon profitieren, dann ist es eben so.
 
Wir können nur zu Gott beten das die hälfte der Leaks nicht stimmt wer kauft noch eine GPU mit 10-12GB heutzutage sind 16GB standart geworden auch hier muss man Danke an AMD sagen auch wenn ich ein Nvidia Fanboy durch und durch bin

Und hoffentlich stimmen die Leaks nicht zur Leistungsaufnahme von 4080/70 wo die extrem wenig verbrauchen dürfen da sehe ich schwarz für meine neue 4090 die wieder komplett kastriert wird in der Leistungsaufnahme
 
Zuletzt bearbeitet:
Benni1990 schrieb:
Wir können nur zu Gtott beten das die hälfte der Leaks nicht stimmt wer kauft noch eine GPU mit 10-12GB heutzutage sind 16GB standart geworden auch hier muss man Danke an AMD sagen auch wenn ich ein Nvidia Fanboy durch und durch bin
Da haste aber auch ne sehr exklusive Meinung ;)

Nachdem ich nur in WQHD spiele, sehe ich kein Problem mir ne 12GB Karte zu kaufen.

Durch die bessere Speicherverwaltung seitens Nvidia sind imo auch keine 16GB VRAM nötig, wüsste jetzt kein Spiel bei dem mich in WQHD die 12GB limitieren.
Wird imo sogar eher schwer in der Masse von Spielen welche zu finden, die durchgehend mehr als 10GB benötigen.

Unter 12 GB VRAM würde ich mir im Jahr 2022 auch nichts mehr kaufen, aber die Spiele bei denen ich 16GB benötige, müssen erst noch programmiert werden
 
  • Gefällt mir
Reaktionen: Laphonso
Eine RX 6900 am Gebrauchtmarkt um 600 gekauft.
Inkl. Rechnung, Abtretungserklärung etc.

Wenn man das packt und man nicht unbedingt eine 7900/rtx4090 braucht, gehts kaum besser.

Eine RX 7700 soll ja so schnell wie eine 6900er werden. Die wird anfangs auch nicht unter 600 sein ..
Aber hier warten wieder Leute auf die eierlegende Wollmilchsau um unter 500eur.

Erinnert mich an die gute alte RTX 3070.
"Schneller als 2080 ti, effizienter, besser und das Ganze um 500eur". Wie ist das nochmal abgelaufen? :D
Ergänzung ()

Buddha1337 schrieb:
Unter 12 GB VRAM würde ich mir im Jahr 2022 auch nichts mehr kaufen, aber die Spiele bei denen ich 16GB benötige, müssen erst noch programmiert werden

Naja wir reden hier von der neuen Gen Grafikkarten.
Diese sind dann wieder 2j lang aktuell.

Ja in WQHD mag das reichen.
Darüber kanns knapp werden und man müsste ggf. Texturdetails senken (kein Big Deal).

Verstehe den Wahn zu noch mehr VRAM nicht ganz, aber gleichzeitig unter 12GB kommen nicht ins Haus.
Vor allem bei Top Modelle die 400w+ verbraten.
 
Buddha1337 schrieb:
Wird imo sogar eher schwer in der Masse von Spielen welche zu finden, die durchgehend mehr als 10GB benötigen.
Wir hatten seit 2018 unterhalb von 4K vielleicht 2 oder 3 Games, die mit vollem Raytracing und UHD Texturpaketen mehr als 10 GB Usage bzw VRAM claim hatten in UWQHD oder 1440p.

Und das waren bereits optionale Grafiksettings am künstlichen, manuellen Anschlag.
Viele denken immer noch, dass Allokation = zwingend erforderliches VRAM bedeutet.
 
  • Gefällt mir
Reaktionen: Pisaro und Buddha1337
Buddha1337 schrieb:
wüsste jetzt kein Spiel bei dem mich in WQHD die 12GB limitieren.
Warzone frisst die kompletten 24gb Vram meiner 3090 in WQHD ganz entspannt und wo ich jetzt in 4k spiele bin ich froh über jedes GB was ich habe
 
Benni1990 schrieb:
Warzone frisst die kompletten 24gb Vram meiner 3090 in WQHD ganz entspannt und wo ich jetzt in 4k spiele bin ich froh über jedes GB was ich habe
Warzone allokiert. Verbrauchen tut es die 24 net ;)
 
  • Gefällt mir
Reaktionen: Pisaro, Laphonso und Sly123
Marcel55 schrieb:
420W für ne 4080, wenn sich das bewahrheitet können die ihren Krempel behalten, Strom kostet teilweise schon 0,90€ pro kWh. Wenn man damit 3h am Tag zockt hat man nach 2 Jahren den Kaufpreis der Grafikkarte noch mal für dessen Stromverbrauch ausgegeben.
...

Immer die Übertreibungen...
Habe mal eben 2 Jahre 7h(berufstätig, bissel Social Life) die Woche für 550W Dauerlast, was eh schon unrealistisch ist, ausgerechnet.
Da kommt man auch ca. 300€ bei 0.9€pro kWh, was noch lange nicht jeder zahlen muss.
Bei uns gibt es eine Erhöhung auf 35/36c. Neuverträge waren so bei ca. 60c vor 2 Monaten.

Und bei dem Preis(geschätzt 1000-1200€) den die RTX 4080 aufs Parkett legen wird, wirst du in nie und nimmer in 2 Jahren auf den Kaufpreis kommen.
 
Elverado schrieb:
RTX 3060 for the win...
Das rumgeizen sieht man bei der 4070. Die soll ja nur 10GB bekommen statt 12. Seit Pascal wird bei den 70ern immer am Speicher gespart, so gut es irgendwie möglich ist. ...
Falsch. Die GTX 1070 hatte 8GB.
Bei der 1060 wurde teilweise mit der 3GB Variante gespart.
 
Benni1990 schrieb:
Und hoffentlich stimmen die Leaks nicht zur Leistungsaufnahme von 4080/70 wo die extrem wenig verbrauchen dürfen da sehe ich schwarz für meine neue 4090 die wieder komplett kastriert wird in der Leistungsaufnahme
Man hat dich erhört(wenigstens vorläufig). ;)
Die allerneuesten Gerüchte setzen die TDP der 4070 und 4080 deutlich runter.
Möglich, dass Nvidia nach ihrer Umsatzwarnung da langsam ins Grübeln kommt. Liegt dann aber sicher nicht an der TDP allein.
 
Zuletzt bearbeitet:
Sly123 schrieb:
Falsch. Die GTX 1070 hatte 8GB.

Ist, wie ich finde, bis heute die beste Grafikkarte gewesen. Aus P/L Sicht etc.

Schneller (bzw. gleich schnell je nach Chipgüte) als das damalige Top Modell: 980ti, effizienter und MEHR Vram.
Vor allem waren damals 8gb einfach extrem viel. Würde fast sagen, wie heute 16GB.

Das gab es dann glaube ich nicht mehr - Von keinem der beiden GPU Anbieter soweit ich mich erinnern kann.

Ähnlich gut altern werden sicherlich RX 6800(XT) wenn man sie zu einem vernünftigen Preis bekommen hat.
 
  • Gefällt mir
Reaktionen: Sly123
https://www.pcgameshardware.de/Gefo...0-und-RTX-4070-moegliche-RTX-4080-Ti-1400925/

Eventuell wurde das schon hier gepostet, aber die dort vermuteten TBP klingen schon mal ,,besser". Falls die stimmen und diese Peaks auf 400W+, die Igors Lab damals bei Ampere gemessen hat, fernbleiben, frisst mein Netzteil so eine 4080 vielleicht.

Aber durch Inflation und den €-$-Kurs (wenn er noch bei 1:1 ist) zahlt man bestimmt wieder die Mondpreise aus der Zeit der Scalper und Schlürfer.

Und wenn der Release auch so kommt wie genannt, macht die 2080S 3 Jahre voll, ehe sie in den Gebrauchtmarkt geht.
 
Waurum die Aufregung, ab von den CPUs, die ja auch im Bereich um die 250W liegen werden ist das doch gar nicht so ein riesen Problem, die Leitung liegt dich nur an, wenn diese auch gefordert wird, wen Du spielst ist die Leistungsaufnahme von CPU und GPU hoch, ist doch OK oder nicht? Spielst Du nicht, kein verbrach, also wo ist da Problem?
 
Es sieht so aus, als hätte das nVidia Marketing wieder zugeschlagen, um in jedem Fall im Gespräch zu bleiben und vielleicht mit generiertem Hype und Absatz all die gelagerten und bei Händlern für Mondpreise wie Blei in den Regalen liegenden und primär für Kryptominer (über-)produzierten Ampere GPUs mit dem Verkauf noch teurerer Ada Lovelace Grafikkarten kompensieren zu können.

Dass viele wieder dem nVidia Marketing auf den Leim gehen werden und die dafür verantwortliche fehlgeleitete Produkt- und Kundenpolitik nVidias (AMD/RTG ist beileibe auch nicht viel besser, aber der Produktions-/Resourcen-Maßstab dürfte dort ein deutlich kleinerer sein) belohnen, anstatt gebraucht (von Minern) zu kaufen, ist leider anzunehmen und es gibt da einige die wesentlich deutlichere Worte dafür wählen, wie bspw. im nachfolgenden Video von NAAF:


Schön, dass viele immer jetzt immer noch die Nase voll haben und keine Grafikkarten mehr kaufen und es bleibt zu hoffen, dass sich das fortsetzen wird bei der großen Mehrheit abseits von Early Adoptern, Hobby-Enthusiasten, u.a., die sich keine Prinzipien diesbzgl. leisten aber dafür immer die neuesten Grafikkarten zu egal welchen Konditionen/Preisen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PegasusHunter
Sly123 schrieb:
Falsch. Die GTX 1070 hatte 8GB.
Häh? Deshalb schrieb ich ja, "seit Pascal".
Vielleicht hätte ich sagen sollen "seit (exklusive) Pascal" oder "nach Pascal", dann wärs eindeutiger gewesen, was ich meinte. Hatte die 1070 selber, schön abgestimmte und effiziente Karte. Und genau darauf wollte ich ja hinaus. Dass eine 'neue 1070' wieder mal fällig wäre, was aber leider wohl nur ein Wunschtraum bleiben wird.
 
zak1976 schrieb:
... also wo ist da Problem?

Als fett ist das ja schon, wenn Grafikkarten unter Last ~400W ziehen können, meinst nicht? Der PC reicht aber auch mit der 250W-TDP-Karte und dessen CPU, welche beim Zocken nicht im Ansatz 250W zieht, um das Zimmer im Winter auf Temperatur zu halten.

Die ~400W müssen ja auch weggekühlt werden und das Netzteil muss dies dann auch schaffen, bzw. man muss u.U. extra eins kaufen. Da sind dann 320W dann schon etwas besser. Und das könnte das 550er hier evl. noch packen.
 
Zurück
Oben