Wo kaufst du ein Strom ? Ich zahle nur 21 Cent pro kWh.!!!Marcel55 schrieb:420W für ne 4080, wenn sich das bewahrheitet können die ihren Krempel behalten, Strom kostet teilweise schon 0,90€ pro kWh. Wenn man damit 3h am Tag zockt hat man nach 2 Jahren den Kaufpreis der Grafikkarte noch mal für dessen Stromverbrauch ausgegeben.
Mal abgesehen davon muss das ganze ja auch irgendwie gekühlt werden. Damit kann man ja seinen Rechner einfach auf die Seite legen und die Glasscheibe zu einem Kochfeld umfunktionieren.
Die 4070 mit 300W könnte vielleicht noch halbwegs abzeptabel sein und ist wahrscheinlich auch schnell genug. Mal gucken.
Aber wenn die die Effizienz nicht steigern und die Mehrleistung vollständig mit einem höheren Verbrauch erkaufen, dann hole ich mir lieber doch noch die alte Gen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GPU-Gerüchte: Leaks zu GeForce RTX 4000 sollen mehr Substanz erhalten
- Ersteller Jan
- Erstellt am
- Zur News: GPU-Gerüchte: Leaks zu GeForce RTX 4000 sollen mehr Substanz erhalten
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
gibt sicher eine 4070 - 192bit variante im vollausbau mit 12 GB.Elverado schrieb:RTX 3060 for the win...
Das rumgeizen sieht man bei der 4070. Die soll ja nur 10GB bekommen statt 12.
Interessant könnte hier wieder eine 4060 mit 12GB werden.
F
FormatC
Gast
Die Daten bekommen die R&D-Leute aktuell in Einzel-Briefings mit dem Field Application Engineer von NVIDIA. Asus weiß also nicht, was MSI bekommt oder Gigabyte, Palit, PNY und weiß ich wer noch. Ergo ist das Einzige, was final ist (schon seit Wochen) das jeweils geforderte maximale Thermal Design der jeweiligen Modellklassen inklusive BoM (Bill of Materials).
NV kann das Spielchen also lustig weitertreiben, und selbst die Engineering Samples der einzelnen Test Vehicles je nach Hersteller simpel per Hardware Strap noch variieren, ohne dass das später zu Problemen führt, denn die Firmware ist alles andere als final. Zum Ablauf hatte ich ja mal was geschrieben. Und die Chips sind eh alle pin-kompatibel. NV kann also auch jetzt noch mit den CUDA Cores und den Taktraten Firmen-bezogen den Rest der Leaker zur Weißglut bringen. Und genau deshalb schreibe ich auch nichts, weil diese Warnung im Raum steht. Denn würde NV das wirklich so durchziehen, was durchaus nicht unwahrscheinlich ist, hätte dann der jeweilige Boardpartner ein echtes Problem.
Kimis Leaks stammen z.B. irgendwo aus einer Position zwischen dem NVIDIA R&D und der Führung der FAE, aber er dürfte nicht wissen, was dann durch welchen FAE an welche Firma gegeben wird. Ich habe mir mal den Spaß gemacht, das auch zeitlich zuzuordnen. Er hatte es immer Stunden vor den FAE, aber eben nie wirklich im Detail
NV ist nicht deppert und als Firma hätte ich wirklich Angst. Warum wohl von AMD nichts durchsickert? Die machen das nämlich schon länger so. Hier lernt jetzt mal NV von AMD, auch wenn es weh tut.
NV kann das Spielchen also lustig weitertreiben, und selbst die Engineering Samples der einzelnen Test Vehicles je nach Hersteller simpel per Hardware Strap noch variieren, ohne dass das später zu Problemen führt, denn die Firmware ist alles andere als final. Zum Ablauf hatte ich ja mal was geschrieben. Und die Chips sind eh alle pin-kompatibel. NV kann also auch jetzt noch mit den CUDA Cores und den Taktraten Firmen-bezogen den Rest der Leaker zur Weißglut bringen. Und genau deshalb schreibe ich auch nichts, weil diese Warnung im Raum steht. Denn würde NV das wirklich so durchziehen, was durchaus nicht unwahrscheinlich ist, hätte dann der jeweilige Boardpartner ein echtes Problem.
Kimis Leaks stammen z.B. irgendwo aus einer Position zwischen dem NVIDIA R&D und der Führung der FAE, aber er dürfte nicht wissen, was dann durch welchen FAE an welche Firma gegeben wird. Ich habe mir mal den Spaß gemacht, das auch zeitlich zuzuordnen. Er hatte es immer Stunden vor den FAE, aber eben nie wirklich im Detail
NV ist nicht deppert und als Firma hätte ich wirklich Angst. Warum wohl von AMD nichts durchsickert? Die machen das nämlich schon länger so. Hier lernt jetzt mal NV von AMD, auch wenn es weh tut.
Eine mögliche RTX 4060 (10/12 GB) oder RTX 4050 (8/10 GB) interessiert mich.
Die RTX 4050 soll ca. 55% schneller als RTX 3050 sein. Also könnte man diese sogar für flottes WQHD (mit mittleren bis hohen Details) verwenden?!
Die RTX 4050 soll ca. 55% schneller als RTX 3050 sein. Also könnte man diese sogar für flottes WQHD (mit mittleren bis hohen Details) verwenden?!
Zuletzt bearbeitet:
Weltraumeule
Lieutenant
- Registriert
- Juni 2022
- Beiträge
- 527
RTX 4070 für 500 €, sonst nein danke und ich warte bis zur 5070, dann wird die 4070 sicherlich "nur" noch 500 € kosten.
Blastoise
Lt. Junior Grade
- Registriert
- Juni 2015
- Beiträge
- 258
Die Grafikleistung der next Gen GPUs werden in beiden Lagern sicherlich ordentlich ausfallen. Darüber mache ich mir wenig Gedanken.
Die letzten Jahren haben jedoch gezeigt, in welche Richtung wir uns bei der TDP bewegen, was mir nicht zusagt. Falls sich nun aber eine weitere Steigerung der Leistungsaufnahme bestätigt und diese tatsächlich bei >= 300W liegt, dann kann ich aus dieser Generation wenig abgewinnen. Hinzu kommt meine Befürchtung, dass nVidia wieder mit dem Speicher niedrig ansetzen wird und erst später eventuell diese erhöht. Für das Unternehmen definitiv die richtige Strategie, für mich als Konsumer ein fettes No-Go.
Wenn die Effizienz weiterhin vernachlässigt wird und davon ist leider auszugehen, dann werde ich meine GTX 1070 bis zum Ende befeuern und sie im Nachhinein mit einem Apple-Laptop oder ähnliches ersetzen. Bin gespannt, wohin es mit der Reise geht.
Die letzten Jahren haben jedoch gezeigt, in welche Richtung wir uns bei der TDP bewegen, was mir nicht zusagt. Falls sich nun aber eine weitere Steigerung der Leistungsaufnahme bestätigt und diese tatsächlich bei >= 300W liegt, dann kann ich aus dieser Generation wenig abgewinnen. Hinzu kommt meine Befürchtung, dass nVidia wieder mit dem Speicher niedrig ansetzen wird und erst später eventuell diese erhöht. Für das Unternehmen definitiv die richtige Strategie, für mich als Konsumer ein fettes No-Go.
Wenn die Effizienz weiterhin vernachlässigt wird und davon ist leider auszugehen, dann werde ich meine GTX 1070 bis zum Ende befeuern und sie im Nachhinein mit einem Apple-Laptop oder ähnliches ersetzen. Bin gespannt, wohin es mit der Reise geht.
Fighter1993
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.859
Ich weiß ja nicht wo du drüben Strom kaufst aber die meisten zahlen doch so ca 35 Cent.Marcel55 schrieb:Strom kostet teilweise schon 0,90€ pro kWh.
Arnie2000 schrieb:Wo kaufst du ein Strom ? Ich zahle nur 21 Cent pro kWh.!!!
so guenstig hab ich ihn nur noch bis januar. bei welchem anbieter bist du?
Ehr Menschen mit sehr sehr engem Blickfeld die gerne den erhobenen Zeigefinger heben und ein wenig verblendet sind denn dann würden sie ihre eigenen Laster selber sehen aber wie dem so ist eigene Unzulänglichkeiten sieht man meist selber nieLaphonso schrieb:Manchmal denkt man hier schreiben nur Schüler mit Taschengeld.
Da wird einem vorgehalten allen jahre 1500 für high end auszugeben aber denk doch an die kinder.... Aber selber geht's einmal im jahr in den urlaub oder regelmäßig neues auto, raucht, feiert Partys, trinkt gerne Bier und und und
Und das kann jeder machen keine Frage aber wie heisst es so schön wenn man im Glashaus sitzt und jeder der hier hat irgend ein Laster jeder von uns hockt im Glashaus
olligo
Lieutenant
- Registriert
- Jan. 2008
- Beiträge
- 697
Bei uns kostet der Strom 0,223€ diese 0,90€ pro kWh sind absolute Abzockpreise. Du hast die sicher von Check24 kann das "eventuell" sein ?Marcel55 schrieb:420W für ne 4080, wenn sich das bewahrheitet können die ihren Krempel behalten, Strom kostet teilweise schon 0,90€ pro kWh. Wenn man damit 3h am Tag zockt hat man nach 2 Jahren den Kaufpreis der Grafikkarte noch mal für dessen Stromverbrauch ausgegeben.
Mal abgesehen davon muss das ganze ja auch irgendwie gekühlt werden. Damit kann man ja seinen Rechner einfach auf die Seite legen und die Glasscheibe zu einem Kochfeld umfunktionieren.
Die 4070 mit 300W könnte vielleicht noch halbwegs abzeptabel sein und ist wahrscheinlich auch schnell genug. Mal gucken.
Aber wenn die die Effizienz nicht steigern und die Mehrleistung vollständig mit einem höheren Verbrauch erkaufen, dann hole ich mir lieber doch noch die alte Gen.
Habe mal gehört, dass der Strom aber schon in Richtung 0,35€ gehen könnte in den nächsten Jahren.
Steini1990
Commodore
- Registriert
- Okt. 2011
- Beiträge
- 4.611
Also die Verbräuche sind mir echt zu hoch.
Dagegen waren die Vega Karten noch ware Stromsparwunder.
Dagegen waren die Vega Karten noch ware Stromsparwunder.
Crazy- Jak
Lt. Junior Grade
- Registriert
- Dez. 2011
- Beiträge
- 391
Für mich das wichtigste aus dieser News, ist das die Partner erst jetzt Daten zu kommenden Generation bekommen. Das heist die Karten kommen frühestens im Oktober wahrscheinlich eher November oder Dezember.
Ich habe wirklich gehofft, noch im September meine Gpu renderpower zu upgraden.
Ich habe wirklich gehofft, noch im September meine Gpu renderpower zu upgraden.
Ich freue mich ja immer, wenn ich solche News sehe... Vielleicht gibt es dann für meine 1060 dann mal irgendwann einen Nachfolger
Aber wie sagt ein guter Kumpel immer so gern "irgend einen Tod muss man Sterben", somit haben wir mehr Leistung aber auch mehr Stromverbrauch. Bei weniger Stromverbrauch haben wir halt weniger Leistung
Kommt immer auf den Anbieter an... kenne jemanden der war bei einem Tarif über 1,00 Euro pro kWh und da zuckt man dann schon mal leicht zusammen. Aktuell liegt der Schnitt bei 40 cent pro kWh, wobei es auch mal weniger oder auch mal mehr sein kann. Kenne aber viele die momentan bei 54 cent eingestuft werden.wern001 schrieb:Das ist der Tarif wenn man automatisch in die Grundversorgung fällt. Der Preis fällt eigentlich unter Wucher und gehört strickt geahndet.
Aber wie sagt ein guter Kumpel immer so gern "irgend einen Tod muss man Sterben", somit haben wir mehr Leistung aber auch mehr Stromverbrauch. Bei weniger Stromverbrauch haben wir halt weniger Leistung
PegasusHunter
Lt. Commander
- Registriert
- März 2004
- Beiträge
- 1.222
Erstmal:
Vielen Dank an die Communitiy hier, dass Ihr so viel schreibt und hier so viele verschiedene, unterschiedliche Meinungen in Beiträgen zu lesen sind. Das meine ich ehrlich und ernst. Auch wenn wir uns gelegentlich " pelzen" macht es einen heiden Spaß hier zu lesen und immer was Neues dazuzulernen.
Was ich nicht verstehe, wir wollen zum Mars und sonstwas errreichen.
Es wird so viel geforscht und soviel an Wissen errungen. Nanoröhrchenstrukturen daraus Seile, stärker als Stahlseile...
Was hindert die Industrie zu forschen um z.B eine 4090TI mit 150 Watt maximalem Stromverbrauch zu entwickeln, es wird alles mögliche erschaffen und auf Effizienz getrimmt.
Und genau das soll beim Thema Grafikkarten nicht funktionieren?
Ernsthaftes Interesse meinerseits. Liegt es am GPU Design? Kann man da nichts ändern?
Oder ist es einfach nicht gewollt von der Industrie?
Wenn eine Firma den Anfang machen würde ein Grafikkartenmonster mit minimalsten Stromverbrauch zu erschwinglichen Preisen. Das als Alleinstellungsmerkmal würde doch einschlagen wie eine "Bom*e"
Und die anderen müssten nachziehen. Oder sind diese Gedankengänge einfach, meinerseits idiotisch?
Vielen Dank an die Communitiy hier, dass Ihr so viel schreibt und hier so viele verschiedene, unterschiedliche Meinungen in Beiträgen zu lesen sind. Das meine ich ehrlich und ernst. Auch wenn wir uns gelegentlich " pelzen" macht es einen heiden Spaß hier zu lesen und immer was Neues dazuzulernen.
Was ich nicht verstehe, wir wollen zum Mars und sonstwas errreichen.
Es wird so viel geforscht und soviel an Wissen errungen. Nanoröhrchenstrukturen daraus Seile, stärker als Stahlseile...
Was hindert die Industrie zu forschen um z.B eine 4090TI mit 150 Watt maximalem Stromverbrauch zu entwickeln, es wird alles mögliche erschaffen und auf Effizienz getrimmt.
Und genau das soll beim Thema Grafikkarten nicht funktionieren?
Ernsthaftes Interesse meinerseits. Liegt es am GPU Design? Kann man da nichts ändern?
Oder ist es einfach nicht gewollt von der Industrie?
Wenn eine Firma den Anfang machen würde ein Grafikkartenmonster mit minimalsten Stromverbrauch zu erschwinglichen Preisen. Das als Alleinstellungsmerkmal würde doch einschlagen wie eine "Bom*e"
Und die anderen müssten nachziehen. Oder sind diese Gedankengänge einfach, meinerseits idiotisch?
@PegasusHunter
Geht vielleicht nicht sparsamer. Die Leute wollen 4K mit maximalen Details, Raytracing und dann noch über 100 fps. Das braucht nunmal enorme Rechenleistung. Oder die Netzteilindustrie und Stromanbieter lobbiieren hier?!
Früher hatte man 640x480 Pixel: da war es einfacher. Teilweise hatten die Karten gar keinen Lüfter. Stromverbrauch war überschaubar.
Geht vielleicht nicht sparsamer. Die Leute wollen 4K mit maximalen Details, Raytracing und dann noch über 100 fps. Das braucht nunmal enorme Rechenleistung. Oder die Netzteilindustrie und Stromanbieter lobbiieren hier?!
Früher hatte man 640x480 Pixel: da war es einfacher. Teilweise hatten die Karten gar keinen Lüfter. Stromverbrauch war überschaubar.
Zuletzt bearbeitet:
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.347
Welches Interesse sollte verfolgt werden wenn es besser/effizienter ginge und man es trotzdem nicht umsetzt? Auch wenn man Manches vielleicht in der Hinterhand hält aber auch den Menschen dieser Firmen geht wohl die Umwelt nicht völlig am Arxxx vorbei,wir sitzen alle im gleichen Boot.
Letzten Endes soll es ja auch noch bezahlbar für den Kunden bleiben. Stand der Technik unter Einbeziehung aller Faktoren.
Letzten Endes soll es ja auch noch bezahlbar für den Kunden bleiben. Stand der Technik unter Einbeziehung aller Faktoren.
Blastoise schrieb:Wenn die Effizienz weiterhin vernachlässigt wird und davon ist leider auszugehen, dann werde ich meine GTX 1070 bis zum Ende befeuern
Wie kommen in diesem Forum noch Menschen darauf, dass in 16nm TSMC gefertigte Karten effizienter sind als Samsung 8nm (aufpolierter 10nm Prozess)??
Für die 160 Watt die deine GTX 1070 verbraucht kannst du eine RTX 3060 betreiben und gewinnst locker 30% an Leistung. Noch effizienter sind z.B. die RTX 3060 Ti oder eine RX6800, verbrauchen allerdings auch etwas mehr Strom.
Und der Sprung von Samsung 8nm auf TSMC 5nm wird eine mächtige Effizienzsteigerung, würde an deiner Stelle dann Richtung 4050 gucken, das dürfte ein massives Upgrade bei ähnlichem Verbrauch werden.
Simanova schrieb:Die Geforce 4070 wurde mit 285 Watt TGP zuletzt genannt.
Die Geforce 4080 mit voraussichtlich 320 Watt.
Und genau deshalb war diese ganze bescheuerte Debatte hier im Forum so überflüssig, es waren nur Gerüchte.
Wir haben hier erst MONATELANG über 800+Watt geredet, weil das die ersten Leaks sagten, dass man so etwas quasi gar nicht kühlen kann und sämtliche andere Einwände wurden stets abgetan.
Und nun reden wir plötzlich von 320 Watt TGP, was auf dem Niveau der 3080 liegt... allerdings wird die Karte um Welten schneller sein.
Ergänzung ()
zivilist schrieb:Geht vielleicht nicht sparsamer. Die Leute wollen 4K mit maximalen Details, Raytracing und dann noch über 100 fps.
Und trotzdem werden die Karten immer effizienter. Die alten Karten die hier ständig gefeiert werden sind elendig ineffizient im Direktvergleich, wenn man auf den Stromverbrauch gucken möchte, muss man eben deutlich tiefer ins Regal greifen (RTX 3050/3060 oder mobile gpus), trotzdem bekommt man viel mehr Leistung.
Ergänzung ()
Tornavida schrieb:Welches Interesse sollte verfolgt werden wenn es besser/effizienter ginge und man es trotzdem nicht umsetzt?
Es gibt doch wirklich für jeden etwas... wer nur auf Effizienz wert legt, der kauft eben nen M1 oder einen Laptop mit iGPU, RTX 3060 und sehr effizienter CPU , z.B. 6800U. Ansonsten gibt es zig Abstufungen von RTX 3050, RX 6400 bis RTX 3090 Ti und RX 6950XTX...
Ergänzung ()
PegasusHunter schrieb:Was hindert die Industrie zu forschen um z.B eine 4090TI mit 150 Watt maximalem Stromverbrauch zu entwickeln, es wird alles mögliche erschaffen und auf Effizienz getrimmt.
Gibt es doch, nennt sich dann irgendwann RTX 4050/RX7600... die Karten sind absurd effizient und mehr geht mit der jeweiligen Architektur und Fertigungsprozess dann wohl nicht, ein Enthusiastenprodukt nur auf Effizienz zu trimmen ist auch einfach komplett sinnlos, wie sollte man dann noch ein breites Angebot für die verschiedenen Ansprüche (1080p + 30fps vs 2160p + 120fps) anbieten?
https://www.computerbase.de/2021-10...3/#abschnitt_energieeffizienz_in_fps_pro_watt
Es gibt halt auch immer physikalische Grenzen, ich hätte auch lieber 5x5x5 cm Lautsprecher mit dem Klang meiner 10kg Studio-Monitore mit 20cmx40cmx40cm.
Zuletzt bearbeitet:
Ich denke immer öfter das hier einige versuchen mit Geld zu denken statt mit Ihrem HirnLaphonso schrieb:...
Manchmal denkt man hier schreiben nur Schüler mit Taschengeld.
karl_laschnikow
Lt. Junior Grade
- Registriert
- Okt. 2010
- Beiträge
- 467
Auf performance pro Watt gesehen werden die Grafikkarten ja immer effizienter.
Das der gesamte Verbrauch steigt liegt wohl daran das die Performance Sprünge pro Generation nicht hoch genug ausfallen würden und User und Aktionäre enttäuscht sein würden.
Desweiteren sollte jeder selbst entscheiden ob der Verbrauch gerechtfertigt ist. Es wird auch wieder sparsame Varianten im Mittelfeld und darunter geben.
Und wenn es noch zu viel Verbrauch ist kann man immer noch Vsync/ fps locker/undervolting und dlss/fsr nutzen.
Ich lese gerne die Gerüchteküche immer mit den Wissen das es nur Gerüchte sind.
Das der gesamte Verbrauch steigt liegt wohl daran das die Performance Sprünge pro Generation nicht hoch genug ausfallen würden und User und Aktionäre enttäuscht sein würden.
Desweiteren sollte jeder selbst entscheiden ob der Verbrauch gerechtfertigt ist. Es wird auch wieder sparsame Varianten im Mittelfeld und darunter geben.
Und wenn es noch zu viel Verbrauch ist kann man immer noch Vsync/ fps locker/undervolting und dlss/fsr nutzen.
Ich lese gerne die Gerüchteküche immer mit den Wissen das es nur Gerüchte sind.
Ähnliche Themen
- Antworten
- 101
- Aufrufe
- 9.531
- Antworten
- 249
- Aufrufe
- 25.524
- Antworten
- 369
- Aufrufe
- 33.200
- Antworten
- 53
- Aufrufe
- 6.213
- Antworten
- 286
- Aufrufe
- 43.827