News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt

Status
Für weitere Antworten geschlossen.
Herrlich, wie's hier wieder abgeht :D Jetzt wartet doch einfach mal ab. Dass in der nächsten Gen direkt 600W-Grakas kommen, halte ich für ziemlich unwahrscheinlich. Die hier vorgestellten Anschlüsse kommen zudem auch bei Servern zum Einsatz, da sieht die ganze Geschichte sowieso ganz anders aus. Da ist auch die Kühlung kein Problem.
Caramon2 schrieb:
Wieso steckt man nicht einfach den 24pol an die GraKa und lässt den PC dann von der GraKa aus versorgen?

Es ist doch absurd, dass der geringste Verbraucher (Mainboard mit CPU, RAM, Laufwerke & Co) den Haupt-Stromanschluss bekommt. #-S
Seit wann ist der 24-Pin denn der Hauptstromanschluss? Gerade der liefert kaum was.
seas888 schrieb:
Diese Entwicklung mehr GPU Performance mit höherer Leistungsaufnahme zu erkaufen ist nicht die beste Idee.
Man muss ja auch nicht immer ins oberste Regal greifen, wenn einem der Verbrauch nicht passt, oder? Du bekommst in der Mittelklasse GPUs, die deutlich weniger verbraten und dennoch schneller sind als die vorherige Gen.
seas888 schrieb:
Muss ja schon sagen Nvidia hat mit der ganzen 30er Serie ziemlich mistgebaut die immense Leistung ist ja völlig auf dem Rücken der Effizienz aufgebaut und hat diesen völlig kaputt gemacht.
Dennoch ist die Effizienz von Ampere bezogen auf Performance/Watt bisher am höchsten unter allen nVidia-Generationen. Und lässt sich noch massiv steigern, indem man einfach das Powerlimit etwas runterdreht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
@Mike_MTL
Wir stecken hier in einem Dilemma.

Die Vision heißt 5K und 8K nach 4K , sie heißt VR, sie heißt Raytracing und sie heißt neuere und bessere gfx Features und Engines.

Ohne Durchbruch in der Fertigungstechnik und Effizienz werden die Top AMD und AMD GPUs im Jahre 2025 die 500 Watt Grenze knacken.

Anders = ohne diese "Leistung" bekommen wir die Grafik zu den imer weiter steigenden Auflösungen Auflösungen in den Effekten mit maximalen fps nicht "produziert".


GGf. wird das in einigen Jahren das Spielestreaming attraktiver machen, weil man sich das virtuelle Systemumfeld dann eben mietet. Allerdings kostet das "dort" auch Ressourcen, nur nicht mehr die eigenen.
 
Wechhe schrieb:
Die Anzahl der Leute, die sich hier über die "600 Watt" beschweren..... WOW.
Vermutlich, weil die ersten drei Leute das auf Seite 1 gepostet haben und der Rest plappert nur nach, statt mal selbst nachzudenken.

Ich finde 600 Watt sogar noch zu wenig. Warum? Hier geht es doch nur darum, was der Stecker physikalisch aushalten kann. Also die Spezifikation. Das heißt doch aber nicht, dass deswegen Grafikkarten zukünftig 600 Watt verbrauchen :D:freak: Wenn ich mir Autoreifen kaufe, die bis 270 km/h zugelassen sind, dann heule ich doch auch nicht rum: "Ooooh, das ist mir viel zu schnell."

Und es ist endlich mal nur 1 Stecker - also vorbei mit den verschiedenen Varianten an Steckern und Verwirrungen seitens Kompatibilität, Adaptern und Netzteilen. Ein Stecker für die Grafikkarte, der ALLE Karten bedienen kann. Eben auch die Monsterkarten mit 600 Watt. Und da sind 600 Watt vielleicht sogar noch knapp bemessen.
Ich stimme dir zu, dass das ganze hier innerhalb der Kommentare hochgeschaukelt wird. Die Ankündigung im CB Beitrag "die 3090 ti soll 450 Watt Spitze benötigen. Und dann kommen dann noch demnächst die 4000er/RDNA 3..." hat aber auch die Phantasie angeregt, dass die Zukunft in die Richtung geht, muss man fairerweise sagen.
 
bigfudge13 schrieb:
Die Frage ist halt, wieviele fps der in Spielen wie Cyberpunk oder BF 2042 auf den Bildschirm zaubert.
Naja das letzte Game auf einer Intel HD630 war The Division mit 720p und rund 40fps.
In For Honor waren das 28fps mit minimalen settings.
Wildlands waren dann nur noch 22-24 FPS mit minimalsten settings.
Von daher dürfte die aktuelle hd 750 auch nicht wirklich spielbare 30+ fps schaffen in games.

Amds Apu`s ab 2200g sind da schon etwas besser aufgestellt, aber die abstriche in der Grafik sind schon heftig.
Meist kommt man über 720p nicht hinaus.
Doom läuft da noch eher nicht so übel und das mit Alptraum Texturen auf der igpu, durch die fehlende Auflösung hat man davon aber auch nicht so viel.

Laphonso schrieb:
@Mike_MTL
Wir stecken hier in einem Dilemma.
Die Vision heißt 5K und 8K nach 4K , sie heißt VR, sie heißt Raytracing und sie heißt neuere und bessere gfx Features und Engines.
Ich finde wenn wir dauerhaft 4K Auflösung mit besseren DLSS/FXR als Standard in allen Games bekommen, zusammen mit guten 4k Texturen, würde mir das reichen. Das legt aber auch nahe, dass DLSS/FXR überall vorhanden ist und somit optimal eingebunden und vielleicht auch noch bei der Effektivität 1-2 Stufen mehr möglich werden.

Ich bin aber auch schon mit einer Grafik wie bei The Division 1 zufrieden wenn das Setting passt und mir das Gameplay zusagt, aber vielleicht bin ich hier auch zu wenig anspruchsvoll mittlerweile und sollte in Zukunft eher auf Konsolen setzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mike_MTL
Hoffentlich wird es dann Grafikkarten mit wesentlich mehr als einem Stecker geben und wieder Multi GPU!
Dann koennt ich den Rechner 24/7 auf Volllast rednern lassen. Mit den zusätzlichen CO2 Steuern werde ich dann richtig aktiv mit meinem Geld das Klima retten.
Soll blos keiner glauben, ich wäre gegen die Klimarettung.

Mal ernsthaft: ob die Entwicklung der Leistungsaufnahme der Grafikkarten in die Richtige Richtung geht ist etwas zweifelhaft. Allerdings kenne ich die technischen Notwendigkeiten zu wenig um das beurteilen zu können. Immerhin wollen wir immer bessere Grafik und überhaupt.

Den einheitlichen Stecker begrüße ich. Endlich kein 6 Pin, 2x 8 Pin, 1x 8 und 2 x 6 Pin und son Zeugs.

Natuerlich darf in so einem Thread die Empoerung ueber die boesen Autos und spezieller SUV's nicht fehlen.
Anstatt mal an die eigene Nase zu fassen immer erst auf die anderen zeigen.
Wie ist denn sonst euer verhalten so? Wie oft in den Urlaub? Wie lange laeuft der PC so? 3D Drucker 24/7 am laufen? Wieviel wird online gekauft? Wieviel von Firmen die nur im Ausland fertigen lassen, speziell in Uebersee? Wieviel Kinder habt ihr in die Welt gesetzt? Ah stimmt, der Mensch an sich als größter CO2 Treiber wird gerne ausgelassen. usw.
 
Laphonso schrieb:
@Mike_MTL
Wir stecken hier in einem Dilemma.

Die Vision heißt 5K und 8K nach 4K , sie heißt VR, sie heißt Raytracing und sie heißt neuere und bessere gfx Features und Engines.
Dann kann ich ja direkt fürs reine Gaming bei den Konsolen Ps5/ Xbos Series X bleiben. Denn das leisten diese für weniger Strom auch.
 
sHx.Shugo schrieb:
Im allgemeinen würde ich es aber tatsächlich eher begrüßen wenn eine GPU Generation mal nicht mit Augenmerk auf "Leistungssteigerung egal wie" entwickelt wird sondern eher in Richtung "Effizienz steigern bei mindestens gleicher Leistung". Momentan wird die Leistung gefühlt nur noch über mehr Stromaufnahme realisiert. (Ich weiß, der Eindruck mag täuschen, selektive Wahrnehmung und so)

Fairerweise muss man sagen, dass die Karten über die neuen Fertigungsprozesse quasi automatisch effizienter werden.
Eine 3070 hat etwa die Leistung einer 2080 Ti - bei ~20% weniger Verbrauch.

Ich würde jetzt nur über diesen Weg eine 4060 bei der Leistung einer 2080 Ti vermuten, allerdings bei ~40%+ weniger Verbrauch.

Im Endeffekt musst du entscheiden, wieviel Geld du ausgeben willst, welche Leistung du benötigst (144 Hz + 4K + RT) und wieviel Abwärme maximal erträglich ist, aber effizienter werden die Karten schon.
 
Rony Erikson schrieb:
Die unteren 4-Pins werden auf dem Bild leicht übersehen.

Die Liefern aber wohl kein Strom sondern sind wohl nur für Daten da.

Ich hab das Video schon bei Igor gesehen und muss sagen mit sagt er zu, auf jeden Fall besser als 1, 2 oder 3 PCIe Stecker wie aktuell.

Lemiiker schrieb:
Ahhhh, zum Glück ist Strom in D sehr billig /s

Gehen wir mal davon aus, dass jemand 4 Stunden am Tag zockt. mit 1000 Watt Verbrauch. Das wären 438 € im Jahr bei 30 Cent je KW/h. Im Monat wären das 36,5 € für ein Hobby ist das doch gar nichts.
 
Engelsen schrieb:
Dann kostet das Spiel 60€ + 30€ Strom im Jahr :freak::freak:
Denkst du das juckt jemanden der 1500€ und mehr für eine Grafikkarte ausgibt?
Also mir ist das egal.
 
  • Gefällt mir
Reaktionen: Kettensäge CH und PeriQue1337
Tornavida schrieb:
Ganz unabhängig der Strompreise ist für mich die Fahnenstange mit jetziger Gen. erreicht.Mehr als 400W bei einer GPU würde ich selbst bei kostenlosem Strom nicht verbauen wollen.
stimmt die Abwärme ist enorm und erfordert ein ausgeklügeltes Kühlsystem, deshalb bin ich auf ein Mora umgestiegen, so hat man die enorme Abwärme gleich fernab des Gehäuses, ich wollte schon immer ne WaKü, da wars mir recht.

Meine Freundin neulich:“ Schatz mir is kalt, darf ich die Heizung anmachen?“

Ich:“ Nein, Ich spiele eh gleich Red Ded Redemption 2, warte noch 1std dann wird es kuschelig warm.“

Fermi und Vega sind doch ein Witz gegen Ampere mit 400W TDP…
 
Beg1 schrieb:
Hat das ernsthaft jemand behauptet?
...

Ich persönlich werde dann statt High-End eben für beide PCs im Effizienz-Segment kaufen, da ein Stromverbrauch >300 Watt nur für die GPU einen Betrieb im Sommer (für mich) unmöglich macht.
Manche Posts lesen sich so, als wäre das gesetzt, aber keineswegs alle.

Bleibt zu hoffen, dass sich Spiele-Entwickler auch ab und zu daran erinnern, dass viele Leute nicht solche Boliden verbaut haben, bzw. Verbauen möchten.
Ich finde das sollte auch bei (Technik-)Tests zu Spielen in Presse und Netz stärker in den Fokus gerückt werden. Oft ist die Aussage [Karte] reicht nicht um in [Auflösung] auf maximalen Details spielbare frameraten zu erreichen. Daraus ergibt sich die Frage, wie weit muss ich Details, oder in der Regel schlimmer, Auflösung reduzieren, damit das spielbar wird. Und sieht das ganze dann im Vergleich zum Vorgänger und ähnlichen Konkurrenz Spielen überhaupt gut aus?
Das kann man in diesem Kontext erweitern, welche Bildqualität bekommt man mit einem PC der höchstens mit 500 W Netzteil ausgestattet läuft.
 
Laphonso schrieb:
Ich bin mit einem 1250 Watt Enermax Titanium bereits vorberietet.
Wenn wir aber Pech haben, dann brauchen wir auch neue Netzteile für den neuen Stecker. 😉
 
  • Gefällt mir
Reaktionen: Mike_MTL und Laphonso
Cool Master schrieb:
Gehen wir mal davon aus, dass jemand 4 Stunden am Tag zockt. mit 1000 Watt Verbrauch. Das wären 438 € im Jahr bei 30 Cent je KW/h. Im Monat wären das 36,5 € für ein Hobby ist das doch gar nichts.

Ja, das Argument mit den Stromkosten finde ich auch nicht so stark, vor allem wenn diese nur von 1000+€ Karten verursacht werden und das auch nur in der Zeit wo diese am Limit laufen (uncapped fps in New World Beta Warteschleife ftw!).

Was mich wirklich stört ist die Abwärme im Sommer, wenn man für den Gaming-PC dann extra eine Klimaanlage benötigt, musst du die Rechnung noch einmal überarbeiten ^^
 
  • Gefällt mir
Reaktionen: Cool Master
kleinstblauwal schrieb:
Bleibt zu hoffen, dass sich Spiele-Entwickler auch ab und zu daran erinnern, dass viele Leute nicht solche Boliden verbaut haben, bzw. Verbauen möchten.
Entwickelt wird für die Konsole und die Mehrheit der Games sind schlicht Ports die am PC mit Enthusiast Settings schlecht skalieren, da nicht auf die Hardware optimiert. Hier bei cb entsteht natürlich der Eindruck das diese Gruppe einen großen Anteil hätte, aber selbst wenn man nur den PC Markt nimmt haben die meisten natürlich nur einen mehr schlechten als rechten PC. Gaming ist immer noch Zielgruppe Kids und soweit ich weiß haben wir keine Reichenquote von 100% da haben die meisten eher nicht so Zeugs, nur weil im Internet irgendwer sein 4k Setup postet sagt das Null über die Allgemeinheit und Publisher werden einen Teufel tun für so wenig Leute irgendwas zu programmieren. Aktueller Aufreger ist FarCry 6.

So etwas wie das Texture Pack ist wirklich nur für Leute die ein Konsolengame (welches eh kacke aussieht) noch mal künstlich verbessert sehen wollen damit sich der PC Kauf auch gelohnt hat. Kp warum das so viele mitmachen, aber ist halt irgendwie so das es immer Leute gibt die zu viel Geld haben und das in Hobbys versenken, egal was es kostet. Wie ich bereits sagte, so einige hier machen alles mit. Die kauen sich auch 2.000 Watt Netzteile wenn sie damit den längsten Balken haben.
 
Beg1 schrieb:
Was mich wirklich stört ist die Abwärme im Sommer, wenn man für den Gaming-PC dann extra eine Klimaanlage benötigt, musst du die Rechnung noch einmal überarbeiten ^^
Kann man aber im Winter gegenrechnen, dürfte sich also ausgleichen von den kosten ;)
 
  • Gefällt mir
Reaktionen: Cool Master
Wo schaufelt man da noch die Hitze hin? Ne Wakü verteilts doch auch nur im Raum. Ez wirds mit meiner 5700xt nach 2 Stunden schon mollig Warm. 600 Watt alleine die Graka und der Rest vom Rechner auch noch dazu. Da weis man im Sommer nicht mehr ob man sein Getränk in die Tastertur gekippt hat oder ob man so reinschwitzt. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kloin
Viele Leute regen sich über Mining auf und verbraten dann so eine Leistung fürs Zocken. Das ist nicht zeitgemäß, so kann der Klimawandel nicht aufgehalten werden.
 
  • Gefällt mir
Reaktionen: Kloin
Single Rail Netzteile können leicht mit einem Starken PCIe Stecker klar kommen, während Multi Rail eines der letzten Vorteile verliert.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben