News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker

MaverickM schrieb:
Und was spricht dagegen, mehr Leistung bei weniger Verbrauch zu bekommen!?
Ergänzung ()



Finde ich bedenklich. Aus Umwelttechnischen Gründen.

Also: 1KW ode mehr nur für eine GPU wäre schon hardcore. Da hängt auch die ganze Rechner-Infrastruktur dran, inklusive Kühlungsaufwand -- man erinnere sich an den Gehäuse-Panik-Artikel, den auch Computerbase damals vorgeschoben hatte.

Dabei ist die RTX 4090 ans ich ja effizient. Selbst ohne UV und bloß übers Powerlimit lässt sie sich auf unter 300W bringen, ohne dabei riesig Performance einzubüßen. Übrigens: Im High End ist das in der Tat relativ wumpe. Das ist nicht das, was die Masse nutzt. Dieses Forum ist wie gesagt eine EXTREME Techbubble. Ich sehe die VW-Polo-GPUs, die jetzt auf die 200W zugehen oder haben, viel kritischer (RX 7600/XT, auch Arc). Der Rest skaliert entsprechend.

Man darf sich nichts vormachen: Green-IT werden Gaming-PCs nie. Aber: Das war mal die Klasse höherklassiger Modelle (siehe Pascal).
 
Zuletzt bearbeitet:
MaverickM schrieb:
Aus Umwelttechnischen Gründen.
Ganz ehrlich: Ist mir vollkommen egal was nach mir ist. Ich lebe mein Leben so wie ich Lust habe. Sollten mehrere so machen, erspart hier und da definitiv Probleme.

Einen guten Rutsch an alle!!
 
B3rry schrieb:
Der aktuelle Stecker der 4080 und 4090 ist der Standard und wurde auch und das wird dir jetzt sicher wehtun von AMD mit festgelegt.
Du wirst es nicht glauben, aber auch der PCIE 8 Pin Mini molex is ein Industriestandard. Mir wäre auch neu, dass es eine einheitliche Vorgabe gibt, aber sicher kannst du uns dazu erleuchten.
Und nein, die 12V HP Stecker sind einfach sehr schlecht designt worden, das könnte man selbst in Studien dazu lesen.

Ich bin froh, dass Industrie-Standards auch nebeneinander Leben können, sonst müsste ich kein TX550am weggeben, weil es wohl immer noch keine Lösung gibt...
Ergänzung ()

Nighteye schrieb:
Ich weiß nicht warum der Strom weg war, war aber in der ganzen Siedlung, und ich habe keine Ahnung obs an E Autos liegt, war nur eine Vermutung.

Zu 99% lag es an einem Bagger, denn die sind Ursache Nummer 1. Und nein, kein E Auto kann einen Blackout auslösen, dann müsste bei dir das einschalten der Küche im Straßenzug das gleiche hervorrufen..
Sorry aber genau so entsteht auf Basis von Unwissenheit eine Aversion gegen Technik. Im Schnitt braucht das BEV ganze 4,7KW Ladeleistung. Das kommt schon sehr gut an den Küchen Bedarf ran.
Für 6 Liter Diesel braucht es ca 42KWh Energie, und eben Rohöl. Ich würde mir also eher Fragen stellen, was der Netzbetreiber da macht.
Black und Brownout Gab es seit Jahren im Deutschland keinen mehr. Stromausfälle haben viele Gründe und liegen im Schnitt bei 4 min bundesweit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Pivi_OWL, metoer und 2 andere
Shio schrieb:
Wenn die Karte zurückmeldet sie braucht nur 300W, liefert das Netzteil auch max nur 300W. Das ist ja der eigentliche Sinn des neuen Standards.

erkläre mal wie das funktionieren soll

also ohne Spannungen zu verändern, denn die müssen ja bei 12 V bleiben und die Stromstärke, die vom NT gezogen wird, bestimmt immernoch die Graka durch den Verbrauch - und bei Überslastung oder Fehler schaltet das NT eben ab.

Selbst wenn das der Standard bietet, hier bringt das keinen Vorteil weil es nicht eingesetzt werden kann.
 
Zuletzt bearbeitet:
Pisaro schrieb:
Sollten mehrere so machen

Da es viel zu viele gibt, die genau so wie Du denken haben wir leider all diese Probleme. Die zukünftigen Generationen freuen sich...
 
  • Gefällt mir
Reaktionen: thom_cat und SweetOhm
Darkwater schrieb:
effizienter diese in den Ausbau von Breitbandinternet zu investieren und tatsächlich auf Cloud-Gaming zu setzen (wenn der Glasphaserausbau voran schreitet und die GPUs

Cloud Gaming ist aber nicht wirklich effizienter. Denn da benötigt die gesamte Infrastruktur Energie. Ohne Strom auch kein Internet, einer der größten Energiefresser bei Rechenzentren ist die Kühlung, die ganze sekundäre Infrastruktur für Support, Wartung etc. Der Ausbau selbst benötigt Energie und selbst ohne dicke GPU brauchst Du zu Hause auch noch ein Abspielgerät. Und wenn man bedenkt, dass auch Fernseher dank immer besserem HDR eher stromhungriger als sparsamer werden.

steigende hardwarepreise siehst du auch bei professionellen Grafikkarten und und ein Gewinn für die Cloudgamingbetreiber soll auch noch bei rumkommen.

Und wenn man dann auch sieht, dass die verfügbaren Glasfaseranschlüsse nur sehr wenige buchen, wird es nicht glaubhafter. Sehr sehr viele Leute hätten schon heute Internet, was gut genug dafür ist. Mn braucht für cloud Gaming aber auch keine Wahnsinnigen bandbreiten.

Clonedrone schrieb:
Aber anscheinend ist es sehr schwierig zu vermitteln, dass manche eine harte Grenze im Verbrauch ziehen und erst danach nach der Performance schauen.

Das hast du schon vermittelt, die Sinnhaftigkeit kommt nur nicht so ganz rum. Aber jedem das seine. Wenn für dich eh der absolute Verbreuch das wichtigste kriterium ist und alles andere danach kommt, ist die GPU Auswahl ja nicht so schwierig. Durch steigende Effizienz bekommst du so ziemlich jede Generation mehr Leistung für deinen Gesetzten Maximalwert. Von deutlich unter 100 Watt bis über 400 wird auch alles angeboten also doch alles top für dich.
 
Weyoun schrieb:
Mit höherer Spannung kann man die Leitungsquerschnitte reduzieren
Sehe ich auch so, 48 Volt wären deutlich sinnvoller gewesen. Wenn schon einen neuen Stecker, dann auch gleich richtig. Ob jetzt sechs mal 12 Volt/GND und vier Sense über einen oder zwei Stecker durchgeschleift werden ändert abgesehen vom mechanischen zusammenführen quasi nix. Andernanzahl blieb gleich. Wozu überhaupt sechsfach die Stromversorgung? Das sollte deutlich eleganter gehen. Und kommt mir jetzt keiner, aber aber bei 48 V wäre die Leistungselektronik auf der tausend Euro Grafikkarte drei Cent teurer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Weyoun und SweetOhm
Quidproquo77 schrieb:
Netzteile unterliegen einem ständigen Versionsupgrade auf neue ATX Standards. In den Foren wird ständig dazu geraten sich ein neues Netzteil zuzulegen, wenn ein altes System aufgerüstet werden soll.
Je nach dem ist das sinnvoll und dann hat man halt den neuen Stecker, jo.

Allerdings wozu sollte ich ein neues Netzteil kaufen, wenn mein RMX850 von 2019 absolut fehlerfrei funktioniert und völlig ausreichend für die Hardware ist, die ich einsetze? Nur damit ich einen neuen Stecker habe? Das macht doch keinen Sinn. Schon gar nicht bei Karten wie der RX 9070 die locker auch mit nem 450W Netzteil läuft wies aussieht. Würde AMD den neuen Stecker vorschreiben, obwohl völlig unnötig bei der Karte, müssten Leute die ihre Mittelklassekiste aufrüsten wollen entweder einen Adapter oder neues Netzteil kaufen, ohne einen Mehrwert davon zu haben. Das ist schlicht nicht sinnvoll. Dir fällt auch kein Argument dafür ein offenbar, denn gelesen habe ich keins.

Quidproquo77 schrieb:
Dein Argument des Aufwands einen Adapter oder nativen Adapter dranzustecken führst du aus, ignorierst aber die Tatsache mit dem alten System 2-3 Kabel zu verlegen und anstecken zu müssen.

Hier geht es um Karten von <350W. Bei mir ist das ebenfalls ein Kabel mit 2x 8 PIN Stecker trotz max. 350W.

20250101_133936912_iOS.jpg



Bei Karten, die 500W+ brauchen ist das was Anderes und das habe ich auch nie in Frage gestellt.

Nur sind die geplanten AMD Karten in denen es in dieser News hier geht halt eher bei der Hälfte und weit weg von 500W+

Quidproquo77 schrieb:
Musst du, sonst würde das Argumentationskonstrukt auch zusammenbrechen.
Dann erleuchte uns doch. Was ist der Nachteil von einem 2x 8 PIN Kabel gegenüber einem 12V-2x6 Kabel bei den GPUs aus der News, die bei 260W Leistungsaufnahme landen sollen?

Quidproquo77 schrieb:
Tatsache ist, auf den Nvidia Karten wird er verwendet, auf den AMD Karten nicht, das ist das ausschlaggebende Kriterium.
Das hat mit Ausnahme der FE Karten nicht viel mit AMD und nVidia zu tun, sondern mit den Boardpartnern. Es gibt auch neue nVidia Karten mit 8 PIN Anschlüssen.

Ich bin sicher, dass wenn es eine 500W AMD Karte gäbe, diese ebenfalls auf den 12V-2x6 Stecker setzen würde, ebenfalls wenn Intel sowas planen sollte. Jedoch bewegen sich Intel und AMD halt einfach nicht in der Region von Leistungsaufnahme wo der neue Stecker hilfreich sein kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Shoryuken94 schrieb:
steigende hardwarepreise siehst du auch bei professionellen Grafikkarten und und ein Gewinn für die Cloudgamingbetreiber soll auch noch bei rumkommen.

Und wenn man dann auch sieht, dass die verfügbaren Glasfaseranschlüsse nur sehr wenige buchen, wird es nicht glaubhafter. Sehr sehr viele Leute hätten schon heute Internet, was gut genug dafür ist. Mn braucht für cloud Gaming aber auch keine Wahnsinnigen bandbreiten.

Ich gehe auch nicht davon aus, dass in Näherer Zukunft Cloudgaming als einzige GPU genutzt wird, sondern das viele Gamer eine eher ältere GPUs (oder sogar eine CPU mit stärkerer integrierten GPU) nutzen und bei aktuellen Tripple-A-Games auf die Cloud zurück greifen (ja nachdem was für ein Modell da angeboten wird).

Ich selbst bin da jetzt auch nicht der größte Fan (habe beim Internetanschluss immer noch nen sehr kleinen Tarif was beim Download nerven kann, aber fürs normale Onlinegaming egal ist, weil das nicht viel Bandbreite braucht) - aber bei der Preisentwicklung, wird es eben ab einem bestimmten Punkt teurer für die paar Grafikknaller die jedes Jahr erscheinen eine Oberklasse oder zumindest obere Mittelklasse-GPU zu brauchen - insbesondere dort wo höhere Auflösungen angestrebt werden - weshalb ein neuer Oberklasserechner wegen der GPU in 10-20 Jahren eben sehr teuer sein könnte, wenn die momentane Preisentwicklung anhält.
Es besteht zwar die Hoffnung das noch ein paar andere Hersteller auf den Markt kommen und die Preise drücken*, aber es ist halt nicht die einzige Perspektive, aber solange Leistungszuwächse bei den GPUs zu immer höheren GPU-Preisen führen ist zumindest der Status quo für viele Gamer:innen zumindest eher keine dauerhaft finanzierbare Option, weil nicht jeder einfach so einen höheren dreistelligen Eurobetrag pro Jahr zurücklegen kann um seine Hardware aktuelle hallten zu können...

*(Chinas momentane GPUs sind zwar noch nicht so toll, aber ich bin immer wieder beeindruckt wie schnell sie aufholen können, aber das weiter Auszuführen würde bei mir nur in einem rant gegenüber Neoliberalismus/Fisklakonservativismus enden und hier soll es nicht um Politik gehen)
 
HageBen schrieb:
Sehe ich auch so, 48 Volt wären deutlich sinnvoller gewesen. Wenn schon einen neuen Stecker, dann auch gleich richtig. Ob jetzt sechs mal 12 Volt/GND und vier Sense über einen oder zwei Stecker durchgeschleift werden ändert abgesehen vom mechanischen zusammenführen quasi nix. Andernanzahl blieb gleich. Wozu überhaupt sechsfach die Stromversorgung? Das sollte deutlich eleganter gehen. Und kommt mir jetzt keiner, aber aber bei 48 V wäre die Leistungselektronik auf der tausend Euro Grafikkarte drei Cent teurer.
Da hängt halt auch ein riesiger Rattenschwanz drann. PC Netzteile sind darauf ausgelegt 12V ,5V und 3,3V zu liefern. Kommt jetzt eine Spannung dazu die auch noch sehr viel Leistung bereitstellen muss, bekommt man mit den aktuellen Formfaktoren für Netzteile vermutlich Platzprobleme, weil man ja einen Haufen zusätzliche Bauteile irgendwo auf der Platine unterbringen muss.

Dann lieber gleich auf Backside Power Delivery durchs Mainboard setzen, auf der Rückseite des Mainboards könnte man locker einen großen Stecker mit dickeren Kabeln unterbringen. Das erfordert aber auch wieder das Mainboard und Gehäuse darauf ausgelegt sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
HageBen schrieb:
Meldet die Grafikkarte sie braucht bis zu 600 Watt, sichert das Netzteil dass maximal 50 Ampere an Strom fließt.

ja klar und das wird auch bestimmt so implementiert - und wenn die karte doch mal kurz paar mehr Amps zieht wegen Lastwechsel -> plopp PC aus respektive Graka aus, obwohl das NT in der Lage wäre, das problemlos zu leisten.

Sorry, aber nein, das wird so definitiv nicht so passieren, dafür ist die Fehleranfälligkeit zu groß, die Frust beim Anwender bringt.

Wo es implementiert werden könnte ist beim Mainboard, welches dann sagt: Soviel Ampere darf ich maximal über meine Leitungen zulassen und das kann nicht verändert werden, wenn da mehr fließen sollte, schalte ab, aber nicht bei Komponenten, die für sich betrachtet OC on the fly gehen können oder kurzzeitige Lastsprünge haben etc.
Und wenn doch auch bei der Graka implementiert dann sagt die Graka: ich vertrage maximal 600 W. Was dann aber nicht mal ansatzweise dem entsprechen muss, was der Chip in Regelbetrieb verbraucht, auch wenn der unter Last nur z.B. 180 W benötigt bei einer MidRange Graka.
Ansonsten würde man jegliche OC Möglichkeit Hardwareseitig verhindern, wann nicht auch der Abschaltschutz im NT on the fly verändert wird, was das ganze wieder absurdum machen würde.
 
Edit. Hatte das falsch in Erinnerung. Der neue Standard ist tatsächlich noch dümmer als gedacht. Sorry.

metoer schrieb:
Da hängt halt auch ein riesiger Rattenschwanz drann. PC Netzteile sind darauf ausgelegt 12V ,5V und 3,3V zu liefern
Die Netzteile mussten für ATX 3.0 sowieso neu. USB geht die Sache wenigstens vernünftig an.
 
Zuletzt bearbeitet:
Darkwater schrieb:
weshalb ein neuer Oberklasserechner wegen der GPU in 10-20 Jahren eben sehr teuer sein könnte, wenn die momentane Preisentwicklung anhält.

Wir kennen die Preisentwicklung der nächsten Jahre nicht. Aber so extrem wie immer alle tun ist die Preisentwicklung nicht. Nicht wenn man sich Inflationsbereinigt die preise anguckt und auch nicht, wenn man bedenkt, dass High End Systeme früher aus 2 bis 4 GPUs bestanden. Und schon gar nicht, wenn man bedenkt, dass die Hardware heute deutlich länger hält und nicht innerhalb von einem Jahr obsoleter Elektroschrott ist.

Darkwater schrieb:
insbesondere dort wo höhere Auflösungen angestrebt werden

<höhere Auflösungen als 1080p sind auch heute noch die Absolute Ausnahme und gerade bei den Leuten, die darauf Wert legen, dürfte ein Streamingangebot mit immer vorhandener latenz und Kompression nicht auf Gegenliebe stoßen. So teuer ist PC Hardware nun auch wieder nicht.

Ich sehe Streaming eher im Casualbereich mit weniger Ansprüchen an Grafik und Latenz als ein Medium. Frame Generation ist ja bei vielen schon sehr unbeliebt, weil es die Latenz steigert.

Darkwater schrieb:
ist zumindest der Status quo für viele Gamer:innen zumindest eher keine dauerhaft finanzierbare Option, weil nicht jeder einfach so einen höheren dreistelligen Eurobetrag pro Jahr zurücklegen kann um seine Hardware aktuelle hallten zu können...

Ist auch nicht wirklich nötig bei den Auflösungen in denen hauptsächlich gespielt wird und bei den belibtesten Spielen. Da hast du auch mit älterer Mittelklassehardware keinerlei Probleme. Nur weil es teure High End Produkte gibt, braucht sie nicht automatisch jeder. Und wenn leute nicht einfach Stumpf alle regler aufs Maximum drehen, reicht Hardware umso länger. Heutzutage kommt man mit einer GPU teilweise ganz gut 4 bis 5 Jahre aus. Und nach der Zeit sind High End GPUs auch noch sehr gut für Leute mit niedrigeren Anspüchen geeignet. Wie in anderen Branchen üblich wird sich viel mehr der Gebrauchtmarkt zu einer Option für mehr Menschen entwickeln.
 
HageBen schrieb:
ATX 3.0 sieht schließlich Spitzenleistungen deutlich über der Nennleistung vor.
https://www.computerbase.de/2022-08...3-0-netzteile-mit-12vhpwr-und-bis-zu-2-600-w/

dort steht nur etwas von der Maximalen Nennleistung des Netzteils, nicht aber EINZELNER Komponenten.
kurzum: mit ATX 3.0 können NTs mit weniger Reserven an das System angepasst werden werden, ohne das die gleich bei Lastspitzen abschalten wie bei ATX2.x. Nicht aber das die TDP einzelner Kompnenten begrenzt werden werden kann, obwohl das NT noch in problemlos in seinen modus operandi arbeiten würde ohne in Überlast zu gehen.
 
Shoryuken94 schrieb:
Aber so extrem wie immer alle tun ist die Preisentwicklung nicht.

Ist ja auch eine neuere Entwicklung (seit der 4000er Serie) die sich jetzt aber bei der 5000erserie fortsätzen könnte, dass z.B. Karten die nicht das Spitzenmodell sind über 1000€ kosten - d.h. du mit jeder Generation nicht mehr deutlich mehr FPS/€ bekommst...

Shoryuken94 schrieb:
<höhere Auflösungen als 1080p sind auch heute noch die Absolute Ausnahme und gerade bei den Leuten, die darauf Wert legen, dürfte ein Streamingangebot mit immer vorhandener latenz und Kompression nicht auf Gegenliebe stoßen.

Generell ja, wobei höhere Auflösungen dadurch an Bedeutung gewinnen, dass Upscalling u.ä. bei niedrigen nicht oder nicht mehr so gut funktionieren (prinzipiell rate ich Preissensiblen Personen auch von hohen Auflösungen eher ab, aber es sieht halt wirklich nicht gut aus wenn Upscaling und Co. genutzt werden und gerade wenn die Karte länger genutzt werden soll, dürfte das an Bedeutung gewinnen)
 
  • Gefällt mir
Reaktionen: SweetOhm
@Sebbi

Edit. Hatte das falsch in Erinnerung. Der neue Standard ist ja tatsächlich noch dümmer als gedacht. Sorry.
 
Zuletzt bearbeitet:
Zurück
Oben