News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?

kawanet schrieb:
Was heißt hier komisch, befinden wir uns doch in einem öffentlichen Forum, in dem jeder seine Meinung kundtun darf, wie du schon selbst festgestellt hast. Zudem entscheidet jeder für sich allein, zu welchem Themen er sich äußert, in welcher Form auch immer, unabhängig vom eigenen Anspruch und ob das jemand als „komisch“ erachtet.

Wie gesagt, kannst du gerne machen, ich kann auf der anderen Seite davon halten, was ich möchte und diese Meinung ebenfalls öffentlich kommentieren. Wenn du es nicht komisch findest einfach negative Produkteigenschaften in die Kommentare zu Posten, bei Dingen die du wahrscheinlich eh nicht kaufen möchtest, dann ist das dein gutes Recht. So wie es mein gutes Recht ist, dass komisch zu finden. Wenn man die Zeit dafür aufbringen möchte nur zu. Ich frage mich bei so einem verhalten nur immer, machst du das bei allen Dingen im leben so? Gehst du zum Metzger an die Theke und sagst der Verkäuferin / dem Verkäufer, dass du keinen Kassler magst und er bei Aldi sowieso viel Günstiger ist? Wenn du beim Audi Autohaus vorbeikommst, rufst du dann in den Verkaufsraum, dass dir die Autos nicht gefallen und der R8 eh viel zu viel Benzin braucht? Oder beschränkst du das auf Onlineaktivitäten und wenn ja wo ziehst du da die Grenze? Bei Hardware? Oder schreibst du unter einen Shooter Test, dass du keine Shooter magst und lieber Strategiespiele spielst? Schreibst in ein Motorradforum, dass du die ganzen Kisten doch doof sind, weil sie keine vier Räder haben und fast ausschließlich als freizeitmobil dienen und dabei unnötig Benzin verbrennen? Ich möchte nur den Sinn hinter dem Verhalten verstehen. Mir erschließt er sich nämlich nicht.

kawanet schrieb:
Welch ein Widerspruch! Ja was denn nun, freie Meinungsäußerung oder penible Rücksichtnahme auf das Beuteschema des Anderen?

Wie oben geschrieben, du kannst deine Meinung äußern wie du willst, genauso wie jeder andere auch. Wo ist das ein Wiederspruch, wenn man bestimmte Dinge hinterfragt oder einfach diskutieren möchte?

ThirdLife schrieb:
Fand den A45 einfach eher arg hart abgestimmt für den Alltag. Aber vielleicht bin ich auch zu alt für sowas (36). Und ich geb dir Recht, ich würd auch den 2er vorziehen, rein vom Fahren her und schon vom Sound.

Ja das stimmt. Wäre für mich auch nichts für den Alltag.

ThirdLife schrieb:
Und eine 980 Ti war wie schnell im Vergleich ? Das fehlt in deiner Betrachtung. Meine 3080 brachte mit 150W die Leistung (teils sogar mehr) meiner damaligen 1080 Ti bei 300W.

Sehr guter Einwand, der immer gerne unterschlagen wird. Es wird auf die TDP oder den maximalen Verbrauch geschaut, aber nicht auf die vollen Möglichkeiten oder die Effizienz. Das ist auch ein wenig, was mich stört. Diese einseitige Betrachtungsweise. Beim Auto geht ja auch keiner hin und meckert, dass ein stinknormaler Golf über 30 Liter verbrauchen kann, sondern da betrachtet man ja auch das Anwendungsprofil. Bei GPUs brauche ich zum einen selten die Volle Leistung, zum anderen gibt der Hersteller mir alle Mittel an die Hand, um einen für mich vertretbaren Stromverbrauch einzustellen. Und wenn ich halt der Meinung bin, ich bräuchte 4K mit 144FPS, ja dann muss ich halt in den sauren Apfel beißen und damit leben, dass das heute eben noch nicht mit 200 Watt möglich ist.
Ergänzung ()

Visualist schrieb:
Der Design Ansatz mit 386 Bit ist schon veraltet .
AMD hat es doch super gezeigt mit dem Infinety Cache und 256BIT.
Die neue Soll 512 Mb Cacheim Chipletdesign bekommen!

Im Optimalfall klappt es, der Cache funktioniert aber auch nur so lange, wie er ausreichend Platz zur Verfügung stellt. Der Infinity Cache hat je nach Situationen so seine kleinen Problemchen. Nvidia scheint einen Mittelweg zu gehen. Viel native Speicherbandbreite plus relativ viel Cache in einer klassischen Strukturierung.
 
  • Gefällt mir
Reaktionen: ThirdLife, JackBen und calippo
Ersten ist dies zu heavy sowas wird bestimmt nicht für den Privaten bereich erscheinen.
falls ja will ich
1tens nicht sehen wie das ding gekühlt wird
2tens kauft sich keine sau ein 1500 Watt Netzteil bei den jetzigen Energie preisen
Es sei denn ich habe ne Solaranlage auf dem Dach
3tens Performens per Watt wird echt kacke.
 
Ich sehe da keine Nachteil beim Cache außer das AMD ihn vielleicht noch etwas zu klein für die 6900 gewählt hat das war es dann auch!
Ich hab eine 6900XT Devil hier gehabt und jetzt die 3080 Ti hätte AMD bei FSR besser abgeliefert hätte ich sie behalten so ist die 3080Ti nur wegen DLSS hier!
 
Shoryuken94 schrieb:
Wie oben geschrieben, du kannst deine Meinung äußern wie du willst, genauso wie jeder andere auch. Wo ist das ein Wiederspruch, wenn man bestimmte Dinge hinterfragt oder einfach diskutieren möchte?

Deine Worte:

Shoryuken94 schrieb:
Ich finde es nur immer etwas komisch, dass man das in der Form wie es viele hier machen, bei Produkten macht, die überhaupt nicht mein Beuteschema sind.

Zudem geht es doch vorrangig um den Verbrauch im Allg. der sich mit der nächsten Grafikkarten Generation ankündigt. Und natürlich steht es jedem frei sich zu äußern, unabhängig davon, ob er Hardware sein Eigen nennt oder nicht.

Nur sind wir uns doch einig, dass in solch einem Forum der überwiegende Teil auch einen Rechenknecht betreibt, von daher erschließt sich mir dein Vergleich nicht.

Gehst du zum Metzger an die Theke und sagst der Verkäuferin / dem Verkäufer, dass du keinen Kassler magst und er bei Aldi sowieso viel Günstiger ist?

Und selbst wenn kein eigener Rechner vorhanden wäre, steht es dir nicht zu anzuraten, derjenige möge sich doch bitte der Stimme enthalten. Deiner Argumentation zufolge dürften sich bspw. ausschließlich Dieselnutzer zur damalige Mogelei äußern. Die Bsp. ließen sich zigfach fortführen. Das meinst du doch nicht ernst, oder?

Sofern der angekündigte Verbrauch sich auf Dauer wie auf breiter Front durchsetzt, wird das mit Sicherheit Institutionen auf den Plan rufen, die absolut nicht das geringste Interesse für derlei Produkte aufbringen. :D

mit frdl. Gruß
 
Zuletzt bearbeitet:
Wird das nun der nächste Hersteller der gegen Innovation auf die Brechstange setzt? Intel machts ja vor. Wenn ich zum Zocken ein Netzteil über 850 Watt brauche läuft da irgendwas falsch. Ich will zocken und kein Kraftwerk betreiben
 
kawanet schrieb:

Ich habe keine Lust wie ein Papagei mich ständig zu wiederholen, daher lasse ich es einfach. Wenn eh irgendwas reininterpretiert wird, macht es wenig Sinn.
kawanet schrieb:
Deiner Argumentation zufolge dürften sich bspw. ausschließlich Dieselnutzer zur damalige Mogelei äußern. Die Bsp. ließen sich zigfach fortführen. Das meinst du doch nicht ernst, oder?

Nein du verstehst meine Argumentation nicht und liest irgendwie immer raus, dass ich Leuten irgendwas verbieten möchte, was nicht meine Intention ist. Es geht um die Form und die Ausmaße, wie man Themen argumentiert. Nicht das man seine Meinung sagt.

kawanet schrieb:
Sofern der angekündigte Verbrauch sich auf Dauer wie auf breiter Front durchsetzt, wird das mit Sicherheit Institutionen auf den Plan rufen, die absolut nicht das geringste Interesse für derlei Produkte aufbringen. :D

Meinst du unsere Steuer und Verbotspolitik? Klar, wenn man die EU noch weiter ins Hintertreffen bringen möchte, wäre das natürlich ein Plan. Aber selbst auf den Ebenen können die meisten Taschenrechner bedienen. Wenn man mal schaut, was man da mit den neuen CO2 Steuern verdienen kann, liegt es nicht im Interesse irgendwelche Verbote auszusprechen. Es sei denn, man braucht vor irgendeinem Wahlkampf mal wieder etwas Symbolpolitik um Leute zu überzeugen, die auf sowas anspringen und eben nicht mal nachrechnen können, was so eine Aktion bringt. Aber es wäre nicht die erste irrationale Entscheidung, die man da trifft. Symbolpolitik bleibt halt einfach zu effektiv.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und |SoulReaver|
cc0dykid schrieb:
Ich bin eher gespannt, wie sie 900W oder gar 600W kühlen wollen mit Luft.
Amigosystem Absprache mit den Herstellern von AIOS und anderen Wakü Lösungen. Oder du bratest die Grafikkarte und verkürzt die Lebenszeit und muss oh Gott dann eine neue Karte kaufen die dann im Vorfeld schon mal 4 stellige Zahlen an Watt hat. Macht ja nichts ;=) Eine Entwicklung die man zum Kotzen finden kann. Ich Spiele gern und auch länger ganz klar. und ich hab auch gern Hardware die ein wenig was leistet. Den Weg den man hier aber seit Längerem einschlägt das ist nicht gut.

Es ist wie bei meinem Stromanbieter der vor kurzem die Preise erhöht hat. Und dann entschuldigt man sich noch für das und es tut uns leid lach. Geantwortet habe ich ihnen dann mit der Frage, wieso sie eigentlich keine Photovoltaik auf ihren Gebäuden haben? Wenn sie doch auch auf ihrer Homepage Energiespartipps geben. Ach ja das Büro, Werkhallen zahlt ja alles der Kunde.

Nvidia und Andere schlagen einen Weg ein, Saft unter der Haube koste es was es wolle der Kunde zahlt eh blind alles. Mir geht es nicht mal und die Preise allein die mittlerweile schon ein wenig unverschämt sind. Es geht darum Entwicklung dahin zu bringen Leistung zu bringen bei gleicher oder weniger Stromaufnahme.

Sich hin setzen eine Karte machen die Monster RAM und Leistung hat und dann Watt zieht jenseits von Gut und Böse ja "mei" das kann man schnell mal. Oder schließen wir in zehn Jahren unsere PC´s die dann 2000 Watt haben an die Bodenheizung an? Könnte mir dann überlegen eine flexibles Rohrsystem in der wohnung zu machen mit Klappen und die wohnung zusätzlich heizen. Oh tut mir leid ich muss Zocken, damit die Wohnung warm wird. Sehr gute Ausrede ;=)
 
Zuletzt bearbeitet:
Lazo53 schrieb:
1tens nicht sehen wie das ding gekühlt wird

Wahrscheinlich mit Wasser, wie es heute schon viele Kunden von High end Karten machen. Die leistungsaufnahme bekommst du zur Not auch mit einem 240er AIO Kühler weg.

Lazo53 schrieb:
2tens kauft sich keine sau ein 1500 Watt Netzteil bei den jetzigen Energie preisen

Naja, außer die Leute, die sowas aktuell auch kaufen? Davon ab, dass Deutschland ein eher kleiner Markt im globalen vergleich ist. In vielen teilen dieser Erde kostet Strom nicht viel. Und ich sag es mal ein wenig plakativ. In Einkommensklassen wo man über den Kauf solcher Grafikkarten nachdenkt, ist das kein Argument. Ähnlich wie sich die meisten AMG Fahrer sich nicht über die Spritkosten aufregen und Käufer eines Tesla Model S sich auch keine Gedanken machen müssen, wie sie die Stromrechnung zahlen können. Ist am Ende immer noch vergleichsweise günstig.

Lazo53 schrieb:
3tens Performens per Watt wird echt kacke.

Out of the box sicherlich. Ist aber auch kein großes Kaufkriterium. Bei der riesigen Anzahl an Shakern wird aber jeder Tuningfreund sehr auf seine Kosten kommen. Mit Undervolting wird das Teil wahrscheinlich in der Effizienz extrem interessant. Ist ja bei Ampere auch so. Aus dem Karton schnell, aber ein Schluckspecht, wenn man möchte kann man aber ziemlich viel optimieren. Erinnert mich ein bisschen an AMD Vega. je nachdem, was man möchte.

Zibbe schrieb:
Ich habe die LÖSUNG einfach nicht mehr Mitmachen

Wenn genug Leute das machen, wird es sich ändern. Solange Leute nur Leute meckern, die nicht die Zielgruppe sind, wird sich da nicht viel ändern. Wenn man der wahren Käuferschicht sauer aufstößt, wird die nächste Generation anders aussehen. Wird man abwarten müssen. Am Ende entscheidet der Kunde mit seiner Brieftasche, ob etwas Erfolg hat oder nicht. Das werden wir dann sehen. Ich glaube aber die typischen Kunden von absoluter High End Hardware haben da eine recht hohe Toleranzgrenze. Wird aber auch darauf ankommen, wie der Rest des Lineups aussieht und wie viele Karten Nvidia verkaufen möchte. Mit einer 3000$ 900 Watt Karte wird Nvidia aber noch immer so einige Leute ansprechen. Wenn man im restlichen Lineup genug Leute abholt, dann wird Nvidia damit auch Erfolg haben. Bei den aktuellen Preisen für Rohstoffe, Ressourcen und Logistik wird sich Nvidia wie die meisten anderen Hersteller aber auch stark auf die Oberklasse konzentrieren, da man da mit begrenzten Ressourcen das meiste Geld verdient.


Wenn die Leute dann aufhören wie die Lemminge alles zu kaufen, was irgendwann unten abfällt, wird Nvidia das Verhalten überdenken. Aber die meisten regen sich nur auf, kaufen am Ende dann trotzdem etwas. Denn verzichten möchten die wenigsten wirklich.
 
  • Gefällt mir
Reaktionen: ThirdLife
Lazo53 schrieb:
2tens kauft sich keine sau ein 1500 Watt Netzteil bei den jetzigen Energie preisen
Da liegst du denke ich total falsch. Leider.
 
  • Gefällt mir
Reaktionen: Shoryuken94
HanneloreHorst schrieb:
Mir geht es nicht darum den M1 zu glorifizieren, für Renderperformance bin ich der erste der das Ding kritisiert.
Aber, wir haben 320 Watt bei der 3090, die aber beim Rendering auf 450+ Watt peaked, die M1 Ultra 64GB CPUs sind derzeit auf 60 Watt-80 Watt limitiert Und werden auch nur 60 grad heiß.
Das sind dann also 4-9 mal weniger Leistungsaufnahme, wobei die 3090 beim Rendering eigentlich immer bei 450+ rumhängt.
Dabei ist sie nur 3-5 mal schneller.
Und ja nach Optimierung kommt man eben doch sehr gut selbst mit dieser limitierten GPU an die 3090 ran.
Es ist einfach im Moment sehr stark von der Optimierung der Software abhängig. Da liegt mehr im Argen als mit der Hardware als solches. Dass es auch mit wenig Verbrauch sehr schnell gehen kann zeigt ja eben der Mobile-Bereich, bzw. Apple mit dem M1.

Es erfordert eben aber auch ein starkes umdenken und viel Anpassung im Software-Bereich.

HanneloreHorst schrieb:
Das ist aber gar kein Bashing aber es zeigt trotzdem, das man bei GPUs schon noch deutlich effizienter werden kann.
Fakt ist, die GPU Hersteller müssen da in meinen Augen auch Lösungen und Antworten finden den Auflösungswahn aber auch dem ökologischen Sinne gerecht zu werden.
Ich als Kunde kann nur das Feedback spielen, ob das Produkt für mich gut genug wird oder nicht.
Wenn du sie toll findest, kaufe sie, nur wir haben es Jahrelang bei Intel gesehen, ohne Druck ändert sich eben auch nichts.
Ja, aber Effizienz wird ja nicht daran gemessen, was ein Produkt maximal ziehen kann. Meinen ehemaligen 5.0er V8 bin ich hier in der Schweiz mit 9-10 Litern im Alltag gefahren, in den Alpen mit viel Enthusiasmus waren aber auch schnell 17-22 Liter drin, auf der Rennstrecke wären auch schnell über 30-40 Liter drin.

Ich messe das Auto aber nicht daran, was es komplett am Limit ziehen kann sondern daran, was es in meinem Alltag zieht.

Und da schliesst sich der Kreis zur Hardware ja auch. Ich spiel grad wieder TW: Warhammer 2, alles auf Maximum und in 4K60 VSync, dabei zieht meine CPU keine 60W, die GPU um die 300W und gut ist.

Wenn ich jetzt eine 4080 hätte und die zwar 600W maximal ziehen könnte, aber die Leistung meiner 3080 Ti im selben Spiel bei 200W repliziert, einfach mit ein paar Anpassungen, dann ist das für mich ne satte Steigerung der Effizienz.

Und das ist ja was für mich im Alltag zählt, nicht ein TDP Wert, der maximal erreicht werden kann. Der zeigt mir nur wie ich mein Kühldesign gestalten muss um im Worst-Case alles gut betreiben zu können, mehr nicht.

HanneloreHorst schrieb:
Natürlich war mein 4K, 120FPS Wunsch auch etwas übertrieben gesprochen.
Das war aber auch gewollt übertrieben gesagt.
Mich nervt es einfach extrem, das ich z.B. meinen Laptop mit 3060 nicht ohne Ladekabel für kleine Rendering Sachen oder Zocken nutzen kann, mich nervt es, das auch das Teil eben nicht die Leistung hat, obwohl es extrem laut ist(also die Lüfter dann) und viel Strom zieht.
Da darf nVidia gerne nachbessern und davon profitieren alle Karten, von unten bis oben.
In dem Bereich muss man sich momentan leider im Voraus genau im Klaren darüber sein wofür man seinen Laptop nutzen will. Ich spiele persönlich auch mit dem Gedanken mir das nächste Macbook Air zu holen und mein 2017er Zenbook 14 zu verkaufen. Einfach weil es sehr flott ist, bei enormer Laufzeit und ich mobil höchst selten mal was einfacheres/älteres zocke wenn überhaupt.

Als "Mobile Gamer" hat man allerdings gar keine Wahl, da ist man halt auf diese "Leistungsfresser" angewiesen. Ich lagere das Hobby daher an den Desktop daheim aus und geniesse es lieber da in vollen Zügen und profitiere mobil lieber von mehr Effizienz und Portabilität.

HanneloreHorst schrieb:
Apple ist nicht perfekt aber eben ein gutes Beispiel, das man schon viel Leistung fast geräuschlos kühlen kann, die 3060 hängt bei Renderjobs auch jenseits der 90-100 Grad rum.
Nur man muss eben nach diesen kreativen Lösungen suchen, das erwarte ich von allen Wettbewerben, von AMD, nVidia und Intel und dann lasse ich da auch gerne mein Geld.

Ob nun die anderen Wunder vollbringen, ich glaube es nicht, aber ich will zumindest schon mal positive Änderungen mit mehr Realitätssinn bei neuen Generationen sehen.
Das ist eben aber auch nicht nur an der Hardware, die Software muss auch passen, da liegt viel Leistung brach. Ich mein, schau dir aktuelle Spiele an, die wenigsten threaden vernünftig über 6-8 Threads raus. Wir betreiben im Geschäft leider auch noch viel zu viele alte Schrott-Software die nur Single-Core, bis maximal Dual Core läuft bei 32 Bit z.B.

Hardware skaliert mittlerweile weit besser als die Software die darauf läuft.

LencoX2 schrieb:
Man sieht daran wie sehr NVidia und der gleichen Strategien folgen:
Spitzenplatz um jeden Preis!

Für den formal "schnellsten" Gaming PC Intel 12900K + RTX 4080 + 32 GB DDR usw komme ich grob auf
250 + 750 + 100 = 1100 . Dazu 400 Watt Puffer für Peaks der durstigen HW macht 1500 Wattt Netzteil.

Läuft bei Intel und Nvidia.... ...in die falsche Richtung :D
Nö, beim Zocken braucht das wohl kaum jemand. Kommt ja stark auf deine Umstände an oder nicht ? Wenn du einen 1080p/120 Monitor betreibst, dann wird die CPU dabei 40W ziehen, die GPU 150W und das RAM keine 20 Watt. Sind wir bei knapp 210W + ein bisschen Kleinscheiss noch.

Oder zwingt dich jemand mit vorgehaltener Waffe in 8K/60 zu daddeln mit RT und maximalen Details ?

danyundsahne schrieb:
Ja, aber es muss doch irgendwie gehen....AMD schafft es doch auch eine so schnelle Gaming CPU zu bringen wie Intels 12900KS, und das mit weniger als die Hälfte des Verbrauchs!
Also geht es doch, offensichtlich! ;)
Kommt stark auf den Task an. Den 12900K muss man ja nicht permanent volle Rotze fahren. Im Gaming Betrieb wird der auch kaum über 50-100W kommen. Genau wie die AMDs (die im Übrigen, gerade im Teillast Bereich eher weniger effizient sind, dank IO Die und Overhead).

danyundsahne schrieb:
Formal ist doch jetzt schon der 5800X3D schneller im Gaming bei nur 60W Verbrauch ;)
Dazu wird laut Gerüchten auch die 7900XT etwas schneller bei weniger Verbrauch.

Dann wären wir bei 60W + 450W + 100W = 610W. Dann wärst bei AMD sogar mit einem 850W -1000W NT um einiges effizienter unterwegs.

Es geht also auch in die andere Richtung :D
Im Gaming Betrieb zieht auch ein 12900 keine 250W, das ist open-end und beim Rendern vielleicht der Fall. Da wäre der aber auch schneller als ein 5800X3D der genau da Federn lassen muss.

Auch kommts ja stark aufs Spiel und deine Auflösung und Settings an wie deine Hardware frisst. Ich hab im Alltag bei den meisten Games selbst in UHD bei 60Hz keine 400W Gesamtsystemverbrauch.

Visualist schrieb:
Natürlich denke ich das nicht ich Tipe auf ca 450-500W.
Die Chiplet einzeln sind nicht grösser die bekommen mehr FP32 Einheiten .
Die echten Shader werden sogar weniger und es wir über FP 32 verdoppelt!
3840 Shader welche durch die FP 32 auf 7680Shader kommen das mal 2 Chiplets!
Und nicht wie NV wird man nur 256 Bit nutzen mit einem riesigen Infinety Cache .
Schau mal zum X3D wie effizient der dadurch wird!
Wird sich zeigen, der Cache frisst ja auch Leistung, nVidia wird ja eine Kombi aus beidem Fahren, den Cache massiv erhöhen und dann zusätzlich noch schnelles Interface (hoffe ich), was vermutlich die beste Kombi sein wird für alle möglichen Anwendungszwecke.

Visualist schrieb:
Der Design Ansatz mit 386 Bit ist schon veraltet .
AMD hat es doch super gezeigt mit dem Infinety Cache und 256BIT.
Die neue Soll 512 Mb Cacheim Chipletdesign bekommen!
Das Speicher IF ist doch bei nVidia auch unterschiedlich ? Und mehr Cache wirds auch bei den neuen ADs geben. Ich bin gespannt.

Lazo53 schrieb:
Ersten ist dies zu heavy sowas wird bestimmt nicht für den Privaten bereich erscheinen.
falls ja will ich
1tens nicht sehen wie das ding gekühlt wird
2tens kauft sich keine sau ein 1500 Watt Netzteil bei den jetzigen Energie preisen
Es sei denn ich habe ne Solaranlage auf dem Dach
3tens Performens per Watt wird echt kacke.
Gekühlt wird das mit Wasser. Ist halt ein Enthusiast Product und nicht für jedermann gedacht. Dass man sich da selbst auch mehr mit befassen muss sollte klar sein.

Zweitens gehst du nur von dir in DE aus, die Welt ist ein klein bisschen grösser als Deutschland. Und nur weil man da die Strompreise nicht im Griff hat gilt das nicht für den Rest der Welt.

Drittens, wieso sollte Performance pro Watt schlechter sein ? Wenn eine kolportierte 4080 bei 600W doppelt so schnell ist wie eine 3080 Ti bei 450 Watt, dann ist das eine deutliche Steigerung der Effizienz. Davon abgesehen zwingt dich ja niemand das mit 600W zu betreiben. Nutz es mit 300W und profitier von der doppelten Performance ggü. einer gleich viel brauchenden 2080S.

Wo ist das jetzt nicht effizient ? Es gibt mehr als nur 0 oder 1.

Sesam81 schrieb:
Wird das nun der nächste Hersteller der gegen Innovation auf die Brechstange setzt? Intel machts ja vor. Wenn ich zum Zocken ein Netzteil über 850 Watt brauche läuft da irgendwas falsch. Ich will zocken und kein Kraftwerk betreiben
Und wie willst du zocken ? Auflösung ? Features ? Details ? 4k120 und alles Maximum ? Dann musst du halt dafür blechen. Wenn du ständig VMAX auf der Autobahn fährst kostet dich das ja auch. Machst du das ständig ? Nein ? Warum dann also daheim mit deinem Rechner ?

Denken alle nur noch binär ?
 
  • Gefällt mir
Reaktionen: Shoryuken94
ThirdLife schrieb:
Das Speicher IF ist doch bei nVidia auch unterschiedlich ? Und mehr Cache wirds auch bei den neuen ADs geben. Ich bin gespannt.
Nvidia ist halt auch dazu gezwungen auf den großen Karten ein großes (und entsprechend stromhungriges) Speicherinterface zu verwenden. AMD dank Infinity Cache nicht mehr. Macht AMDs Karten energieffizienter und macht das Realisieren von unterschiedlichen VRAM-Größen einfacher.
 
sikarr schrieb:
ein Umdenken wäre an der Zeit

Und wie soll dieses "Umdenken" aussehen - Stagnierende Leistung und einzig Effizienzsteigerung durch Strukturverkleinerung und Design im einstelligen Prozentbereich? Dafür dann aber bei der neuen Generation richtig blechen müssen? Sowohl betriebswirtschaftlich für die AGs als auch für die Käufer ein unbefriedigendes Szenario.

Programmierer mögen mich für diese Bemerkung steinigen, aber ein großes Sparpotential liegt aus meiner Sicht bei den Software- und Spieleentwicklern. Anstatt eine schlechte Portierung "rauszurotzen" und diese mit Rohleistung zu erschlagen, könnte man mal wieder bemüht sein mehr aus der Hardware herauszukitzeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und Shoryuken94
ThirdLife schrieb:
Kommt stark auf den Task an. Den 12900K muss man ja nicht permanent volle Rotze fahren. Im Gaming Betrieb wird der auch kaum über 50-100W kommen. Genau wie die AMDs (die im Übrigen, gerade im Teillast Bereich eher weniger effizient sind, dank IO Die und Overhead).
Ich rede schon vom KS....der verbraucht im Gaming 120-140w. Ohne Volllast! Und davon rede ich noch garnicht.
Daher schrieb ich auch von der Hälfte des Verbrauchs. ;)
Aber selbst der K verbraucht im Gaming gute 80-90 Watt und ist somit von der Effizienz des 5800X3D weit entfernt.
Absolut ist das nicht viel, aber FPS/Watt eben doch weit weg vom 3D Chip.

Ich weiß, dass der 12900K/S in Anwendungen schneller ist. Aber dafür hat AMD auch ein Äquivalent im lineup.
Aber da gerät der Intel dann auch in den Nachteil, weil er unter Volllast extrem säuft. Und selbst hier die AMDs nicht an solche Verbrauchswerte herankommen.
 
domian schrieb:
Und wie soll dieses "Umdenken" aussehen - Stagnierende Leistung und einzig Effizienzsteigerung durch Strukturverkleinerung und Design im einstelligen Prozentbereich? Dafür dann aber bei der neuen Generation richtig blechen müssen? Sowohl betriebswirtschaftlich für die AGs als auch für die Käufer ein unbefriedigendes Szenario.
Von der Dauer, wie lange dann eine neuen Gen auf sich warten lässt reden wir da noch gar nicht!
 
kawanet schrieb:
Nichtsdestotrotz würde ich dir nahelegen, auch den Tesla mit in die Signatur aufzunehmen. So musst du nicht permanent und immer wieder auf's Neue "Mein Haus, mein Auto, mein Boot" predigen.:daumen:
Uh, hier stinkts aber grad ziemlich nach Neid. Zitiere doch mal wo ich etwas "predige" abgesehen davon, dass man seine Hardware nicht 24/7 am Limit betreiben muss und jeder evtl. ein bisschen auf sich selbst schauen sollte und anderen ihre Freiheiten lassen.

kawanet schrieb:
Ob jetzt tatsächlich vorhanden, lassen wir mal außen vor. Das ist ja ähnlich, wie bei den Fiffis, die kleinsten kläffen am lautesten.:smokin:
Wie soll ich dir das beweisen, ohne dass du mir am Ende unterstellst das wären ja nicht meine Fotos ? Könnte mich nachher noch ins Auto setzen und dir ein Foto mit dem CB Thread machen im Browser vom Auto.🤔

Aber hey, wenns dir hilft deine Frustration zu bewältigen, hier bitte, einmal unterwegs am SuC in Leonberg, einmal daheim an der Wallbox. :daumen:

IMG_3724.jpg
IMG_3766.jpg
 
  • Gefällt mir
Reaktionen: Shoryuken94
Beitrag schrieb:
Macht AMDs Karten energieffizienter und macht das Realisieren von unterschiedlichen VRAM-Größen einfacher.

Verstehe ich nicht. Das macht keinen Unterschied, du kannst höchstens minimal eine ungleichmäßig aufgeteilte Bestückung etwas verschleiern, macht AMD aber auch nicht. Für eine gleichmäßige Bestückung kommt es am Ende nur auf die physischen Speichercontroller an.

Beitrag schrieb:
Nvidia ist halt auch dazu gezwungen auf den großen Karten ein großes (und entsprechend stromhungriges) Speicherinterface zu verwenden. AMD dank Infinity Cache nicht mehr.

Das große Interface bei Nvidia ist aber auch kein Flaschenhals, der je nach Szenario auftreten kann. Je nach Größe der Daten bringt der Cache viel bis wenig. Wenn die zu speichernden Daten größer als der Cache werden, bringt es dir recht wenig. Sieht man an einigen Computeanwendungen und teilweise sehr hohen Auflösungen. Aus dem Grund findest du auf den HPC Karten ja auch HBM Speicher und keinen Infinity Cache. Zudem hast du beim Cache ebenfalls einen gewissen Energieaufwand, der mit der Größe steigt und du bist beim Chiplayout eingeschränkter, wenn du den Cache richtig platzieren möchtest. Zusätzlich kostet es eben auch einiges an Chipfläche, so dass man ab bestimmten Größen recht unwirtschaftlich wird oder wie AMD auf Chiplets umsatteln muss. Die bringen dann aber auch immer eine gewisse Latenz, die man mit noch mehr Cache ausgleichen muss.

Das ganze ist nicht so schwarz weiß, wie manche das denken. Wie sich Nvidias Hybrider Ansatz mit viel Cache und dickem Speicherinterface schlägt, muss sich halt in Zukunft zeigen. Es wird aber sehr wahrscheinlich die Lösung sein, die in den meisten Anwendungen gut skaliert. Unabhängig der Datengröße und wie gut der Caching Algorithmus mit der Anwendung umgehen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
@ThirdLife

Es geht um dein Auftreten als solches.

ThirdLife schrieb:
Nö, musst du nicht. Groß tönen was alles "gehen müsste", das musst du allerdings auch nicht wenn dir das Verständnis für die Materie fehlt.

ThirdLife schrieb:
Was für ein TV soll das sein ? FALD mit vier Zonen vielleicht und 42" am Black Friday.

ThirdLife schrieb:
Wenn man sich einfach nur anspruchslos berieseln lassen will

Wie sagt man/n so schön: "Wie man in den Wald hinein ruft, so schallt es heraus".
 
Zuletzt bearbeitet:
Beitrag schrieb:
Nvidia ist halt auch dazu gezwungen auf den großen Karten ein großes (und entsprechend stromhungriges) Speicherinterface zu verwenden. AMD dank Infinity Cache nicht mehr. Macht AMDs Karten energieffizienter und macht das Realisieren von unterschiedlichen VRAM-Größen einfacher.
Der Cache zieht genauso Saft wie ein IF. Und effizienter sind deren Karten unter Anderem auch dank N7. Schau zB mal die A100er Datacenter GPU an von nVidia, die hat 6912 Shader, ggü. den 5120 der 3080 Ti zB liegt aber auch nur bei 1410Mhz Clock und gefertigt in N7 bei 250W. Und das trotz 40GB HBM2 Speicher.

Das ist krass effizient und das trotz dickem Speicher IF.

danyundsahne schrieb:
Ich rede schon vom KS....der verbraucht im Gaming 120-140w. Ohne Volllast! Und davon rede ich noch garnicht.
Daher schrieb ich auch von der Hälfte des Verbrauchs. ;)
Aber selbst der K verbraucht im Gaming gute 80-90 Watt und ist somit von der Effizienz des 5800X3D weit entfernt.
Absolut ist das nicht viel, aber FPS/Watt eben doch weit weg vom 3D Chip.
Ja, stellt sich halt die Frage ob man den KS braucht ? Was bringt der real mehr ? Würde ich jetzt neu kaufen MÜSSEN wäre es auch ein 12900K, einfach weil die Plattform moderner ist und ich sicher nicht einen Neukauf auf AM4 Basis tätigen würde aktuell.

Die Sache ist einfach, der kann ohne große Verluste auch bedeutend effizienter gefahren werden und ist dann dennoch in den meisten lightly threaded loads besser und braucht im Gaming nicht mehr und im Idle weniger als ein 5800X3D.

danyundsahne schrieb:
Ich weiß, dass der 12900K/S in Anwendungen schneller ist. Aber dafür hat AMD auch ein Äquivalent im lineup.
Aber da gerät der Intel dann auch in den Nachteil, weil er unter Volllast extrem säuft. Und selbst hier die AMDs nicht an solche Verbrauchswerte herankommen.
Und dann tauschst du die CPU im Sockel für maximale Effizienz je nach Anwendungszweck ? :D
Man muss sich schon im klaren sein, was der persönliche need ist für den man sich eine Plattform anschafft. Und je nachdem kommt man halt bei Intel oder AMD raus.

Ich geh davon aus, dass auch Intel am Cache drehen wird für Gen 13 unter anderem. Dass der 12900KS einfach nur ein Notfall-Produkt ist dürfte klar sein. Generell find ich 12th Gen aber relativ gut.

Shoryuken94 schrieb:
Das ganze ist nicht so schwarz weiß, wie manche das denken. Wie sich Nvidias Hybrider Ansatz mit viel Cache und dickem Speicherinterface schlägt, muss sich halt in Zukunft zeigen. Es wird aber sehr wahrscheinlich die Lösung sein, die in den meisten Anwendungen gut skaliert. Unabhängig der Datengröße und wie gut der Caching Algorithmus mit der Anwendung umgehen kann.
Und genau das wird spannend zu sehen. Enorme Cache Mengen bei AMD vs. hybrider Ansatz bei nVidia. Technisch gesehen klingt letzteres für mich performanter, weil man als Tradeoff höchstens leicht höheren Verbrauch hat, wenn überhaupt, aber nicht auf Seiten der Leistung einsparen muss.

Insbesondere wenn man weiter denkt an ReBAR + W11 mit DirectStorage und PCIe 4/5.

kawanet schrieb:
Wie sagt man/n so schön: "Wie man in den Wald hinein ruft, so schallt es heraus".
Ok, also was genau stört dich daran ? Dass ich einen 600€ TV als nicht interessant für mich erachte basierend auf der Technologie die ich dafür bekomme ? Darf man nur gut finden was auch du gut findest ?

Oder hältst du allen Ernstes einen 700 € Hisense 132 Zonen 55" LCD TV als gleichwertig gegenüber einem aktuellen 77"+ LG WOLED oder Samsungs neuen QD OLEDs ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und Shoryuken94
Zurück
Oben