News Nvidia GeForce RTX 3090: Fotos der Custom Designs von EVGA liefern mehr Details

Ich schwanke noch zwischen dem Corsair RMi 750 und dem Be Quiet Straigt Power 11 bzw Platinum.
Die Werte zum Auslesen wären schon nice to have.
Kommt ja sonst nicht viele andere Netzteile die sowas anbieten oder?

Ich habe bis jetzt noch keine negativen Erfahrungen mit MSI gemacht.
Meine 970 und 1080 ist von denen.
 
Zuletzt bearbeitet:
Die Karten heißen wohl nicht umsonst Ampere :lol:, statt alle Atomkraftwerke anzuschalten, sollten wir lieber noch ein paar neue errichten.
 
Hallo zusammen,

@ CharlieBarlie
CharlieBarlie schrieb:
Wenn ich mein System (Ryzen 3700X) beim PSU-calc von BQ eingebe und als Grafikkarte eine AMD Vega 64 Liquid, die ja mit 345W TDP angegeben ist, dann bin ich bei 87% Auslastung und die Anzeige ist "grün". Als Kauftipp wird mit 74% aber ein 650W empfohlen.
345 Watt sind für Vega 64 konservativ gewählt. Manches Vega 64 Custom Modell genehmigt sich auch gerne mal in den Spitzen mehr als 400 Watt. Hier kannst du dich detailiertest davon Überzeugen:

https://www.igorslab.de/rx-vega64-custom-card-review/12/

Und es muß immer zwingend ein richtig gutes NT sein. Hier im Forum findest du sogar Beiträge mit Leuten, bei denen sich 750 Watt Netzteile als problematisch heraus gestellt haben und ich rede von guten NT`s.
CharlieBarlie schrieb:
550W müsste doch dann für die 3080 ausreichen, sofern die Lastspitzen jetzt nicht zu heftig ausfallen, oder?
Abgesehen davon daß man das Seriös noch nicht beurteilen kann, würde ich das gleichwohl basierend auf den bisherig bekannten Daten verneinen. Eher 650 Watt Plus X, abhängig dazu vom restlichen System, wie CPU und auch Übertaktung derselben. Bei manchen Custom Modellen der 3080 erwarte ich deutlich mehr als 350 Watt, wenn ich mir die Lücke schon bei der RTX 2080 FE und den Custom Modellen derselben so anschaue. Das wird bei dieser Generation eher noch verstärkt der Fall sein, schätze ich mal dezent.

Für nicht wenige Leute wird zwingend also noch ein Neues Netzteil dazu kommen, wenn sie sich eine der kommenden RTX 3080 / 3090 zulegen wollen. Ach ja, nicht zu vergessen zusätzliche Lüfter für die Gehäusebelüftung, die ganze Abwärme muß ja auch noch abgeführt werden aus dem Gehäuse.

So long...
 
  • Gefällt mir
Reaktionen: iceshield und CharlieBarlie
@xexex

Hättest du es gelesen dann hätte dir auffallem müssen das dort gleich mehrere Standards verewigt sind (IBM PC, XT, AT, ATX) aber klar, das fällt natürlich nicht auf wenn man nach dem verallgemeinerten Überbegriff der Computernetzteile sucht.
Auch erfüllen die ganzen anderen Stecker einen entsprechenden Standard und eine solche Standardisierung hat nochmal welche Aufgabe? Herstellerübergreifende Kompatibilität sicherzustellen und ich bezweifel stark das es nvidia mit ihrem herstellerspezifischen Stecker darum gegangen wäre. Du hast diesbezüglich andere Faktenen?
So wie ich das sehe hatte nvidia lediglich zu dem Stecker gegriffen um ihn so bei dem kleinen PCB dieser stromhunrigen Karte zwischen die Kühlrippen quetschen zu können, deshalb wohl auch die mehr als suboptimale Einbauposition bei den FE Modellen.

Einfach mal weniger beweihräuchern und mehr kritisch hinterfragen.
 
Wadenbeisser schrieb:
Herstellerübergreifende Kompatibilität sicherzustellen und ich bezweifel stark das es nvidia mit ihrem herstellerspezifischen Stecker darum gegangen wäre.

Nvidia hat die Spezifikation öffentlich gemacht und die Nutzung anderen Herstellern frei gelassen. Nichts anderes macht Intel wenn sie Änderungen an ihren ATX Design Guides veröffentlichen, die dann genauso auch bei AMD Boards übernommen werden.

Letztendlich wird vermutlich entscheidend sein ob Intel auf den Zug aufspringt und ob Nvidia mit den nachfolgenden GPU Generation den Stecker ihren Partnern vorschreibt, Bis dahin sollten zumindest für die modularen Netzteile entsprechende Kabel bei allen Herstellern vorhanden sein.
 
xexex schrieb:
der Rest wird früher oder später nachziehen, spätestens mit der nächsten Modellpflege.
Wobei ich die Anpassung der Modelle mit dem neuen Stecker auf ziemlich lange Sicht nur bei modularen Netzteilen (Cable Management) sehe (vielleicht tatsächlich sogar erstmal nur als optionales Zubehör, je nachdem ob und wie bald AMD / die Build Partner den 12 Pin Anschluss verwenden, was ich allerdings begrüssen würde, da die Gründe, die für den 12 Pin Adapter vorliegen, tatsächlich gut sind!).
Ich vermute, die anderen Netzteile ohne Cable Management werden die 12 Pin Stecker wohl erst aufgreifen, wenn alle Grafikkarten aus allen Leistungsklassen mit einem 12 Pin Stecker daher kommen, um nicht die Kosten der Netzteile durch ein zusätzliches, nicht unbedingt benötigtes Kabel zu erhöhen (sagt leider Hallo zu den Adapterkabeln ... schüttel)
 
Hallo zusammen,

@ Wadenbeisser
Wadenbeisser schrieb:
Herstellerübergreifende Kompatibilität sicherzustellen und ich bezweifel stark das es nvidia mit ihrem herstellerspezifischen Stecker darum gegangen wäre. Du hast diesbezüglich andere Faktenen?
Jep, ich zumindest habe Fakten. Richtige Fakten. Und nachfolgend findest du den entsprechenden Link, so daß du dich am besten selbst kundig machen kannst, was nun Fakt ist und was nicht, du liegst im übrigen so falsch nicht, wenn ich das Sagen darf:

https://www.igorslab.de/nvidias-mys...ssendes-kabel-von-seasonic-hintergrund-story/

Der Stecker ist also kein Standard und inwieweit er Standard wird, hängt mit Sicherheit von den Zahlen ab, den Verkaufszahlen um genau zu sein.

@ Xexex
xexex schrieb:
Nvidia hat die Spezifikation öffentlich gemacht und die Nutzung anderen Herstellern frei gelassen.
Das ist falsch. Das ist keine "Spezifikation". Jedenfalls nicht dies, was man unter der Begrifflichkeit versteht im allgemeinen. Es ist vielmehr eine Nvidia-eigene Konzeption, geschuldet ihrem eigenen Board-Entwurf. Aber keine Spezifikation.

So long....
 
Zuletzt bearbeitet:
xexex schrieb:
Immerhin sind mit Seasonic, Bequiet und Corsair drei Schwergewichte hierzulande dabei, der Rest wird früher oder später nachziehen, spätestens mit der nächsten Modellpflege.

Ist gut dass das so breit aufgelegt wird, ich schätze bei der nächsten Graka Generation wird der 12 Pin Anschluss Standard werden, sowohl bei AMD, Nvidia und auch Intel.

Hier im ürigen die Quelle für die Seasonic Kabel

https://www.techpowerup.com/272156/...dular-cable-free-for-geforce-30-series-owners
 
  • Gefällt mir
Reaktionen: Blaze1987
catch 22 schrieb:
Ich vermute, die anderen Netzteile ohne Cable Management werden die 12 Pin Stecker wohl erst aufgreifen, wenn alle Grafikkarten aus allen Leistungsklassen mit einem 12 Pin Stecker daher kommen

Es gibt gute Gründe für ein nicht modulares Netzteil, allerdings findet man vor allem im unteren Preissegment viele Netzteile mit festverbauten Kabeln. Diese liefern aber auch meist sowieso nicht genug Strom für einen solchen Stecker.

Interessant dürfte die Sache auch bei Servern sein, dort dürfte die Nachfrage und der Bedarf nach kleineren Steckern und einzelnen Kabeln noch etwas höher sein, allerdings ist man da gerade dabei von den klassischen PCIe Karten abzurücken.
 
Luxmanl525 schrieb:

Ok danke für Deine Einschätzung, aber dann werde ich erstmal Big Navi abwarten. Vielleicht hauen die ja nen Effizienzkracher im Leistungsbereich der 3080 raus.
Schade... find die 3080 FE echt schick.

Mein NT ist kein Jahr alt.... hatte ehrlich gesagt nicht damit gerechnet, dass die Verbrauchstechnisch jetzt so bei Nvidia raushauen, sonst wäre ich direkt auf 650W oder mehr gegangen.
 
@Luxmanl525

Ist dir schonmal aufgefallen das die Adapter Lösung ein gravierendes Problem hat?
Dem Adapter dürfte herzlich egal sein ob darin 2x 8 Pin Stecker stecken, bei denen die zusätzlichen Pins einen ausreichenden Kabelquerschntt sicherstellen sollen, oder 2x 6 Pin Stecker stecken die lediglich für je 75W spezifiziert sind.
 
Hallo zusammen,

@ Wadenbeisser
Wadenbeisser schrieb:
Ist dir schonmal aufgefallen das die Adapter Lösung ein gravierendes Problem hat? Dem Adapter dürfte herzlich egal sein ob darin 2x 8 Pin Stecker stecken, bei denen die zusätzlichen Pins einen ausreichenden Kabelquerschntt sicherstellen sollen, oder 2x 6 Pin Stecker stecken die lediglich für je 75W spezifiziert sind.
Sagen wir so, ich habe mir so meine Gedanken gemacht. Und mich würde Persönlich nicht wundern, wenn es zu der ein oder anderen Inkompatibilität mit dem ein oder anderen Netzteilfakrikat kommt.
Wadenbeisser schrieb:
Das Teil hatte aber auch 3x 8 Pin Stromanschlüsse und hätte so Spielraum bis 525W
Der Anschluß in dieser Kapazität ist wohl eher Theoretisch zu Sehen ;). Bevor die GPU da diese Schwelle erreichen würde, würde sie eher bruzzeln.

@ xexex
xexex schrieb:
Es gibt gute Gründe für ein nicht modulares Netzteil
Ach komm, hör auf. Meist sind es Budgetgründe. Wie du selbst aufführst, meist sind es Budget-NT`s, die über keinen Modularen Kabelverhau verfügen. Ansonsten muß eben höherer Aufwand betrieben werden, das war es aber schon. Ich selbst habe sogar ein Teilmodulares NT aktuell im System und das schon seit 5 Jahren. Wunderbares Teil.

@ CharlieBarlie
CharlieBarlie schrieb:
Ok danke für Deine Einschätzung, aber dann werde ich erstmal Big Navi abwarten. Vielleicht hauen die ja nen Effizienzkracher im Leistungsbereich der 3080 raus.
Schade... find die 3080 FE echt schick.
Jep. Ich habe ja auch die Hoffnung, daß AMD im Bereich Plus / Minus des Leistungsbereichs der RTX 3080 eine GPU hat, die dafür deutlich gemügsamer mit dem Strom umgeht. Wenig langsamer, dafür deutlich sparsamer und weniger Abwärme erzeugend wäre aus meiner Sicht interessant und wünschenswert.

So long...
 
Zuletzt bearbeitet:
xexex schrieb:
Diese liefern aber auch meist sowieso nicht genug Strom für einen solchen Stecker.
hmm... das ist mir etwas zu pauschal, es gibt auch gute nicht modulare im 650Watt und mehr Bereich. Auch sollte man nicht vergessen, dass modulare Netzteile ein wenig ineffizienter sind, aufgrund der zusätzlichen Steckerverbindung, wobei ich mir gar nicht mal sicher bin, ob ich da nicht ein "sagt man" hinzufügen sollte, weil ich nicht einschätzen kann, wie gross da der Verlust ist

Interessant dürfte die Sache auch bei Servern sein, dort dürfte die Nachfrage und der Bedarf nach kleineren Steckern und einzelnen Kabeln noch etwas höher sein.
Was Server angeht hat Intel afaik doch seit einiger Zeit andere Pläne?
Ich hab da mal in einem Büroplausch mit ein paar Kollegen gehört, dass Intel auf "auch bei sehr geringer Last hundsgemein effiziente 12 Volt Netzteile" für Server umschwenken will, die alles ins Board pumpen, welches dann wiederum die einzelnen Verbraucher versorgt.
Das Netzteil selber wird dadurch extrem einfach und günstig, während das Board deutlich teurer wird. Im Endeffekt fangen aber die Stromkosten im Serverbetrieb das alles sehr schnell wieder ein, so die Ersparnis nicht von schlechten Eltern sein soll
 
Luxmanl525 schrieb:
Sagen wir so, ich habe mir so meine Gedanken gemacht. Und mich würde Persönlich nicht wundern, wenn es zu der ein oder anderen Inkompatibilität mit dem ein oder anderen Netzteilfakrikat kommt.
Dabei geht es aber nicht nur um Inkompatibilitäten sondern um unzulässige Spannungseinbrüche und ev. sogar überhitzende Anschlusskabel wenn sich ein Hersteller dafür den dünnsten Zwirn rausgesucht hat der zulässig wäre.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Hallo zusammen,

@ Wadenbeisser
Wadenbeisser schrieb:
Dabei geht es aber nicht nur um Inkompatibilitäten sondern um unzulässige Spannungseinbrüche und ev. sogar überhitzende Anschlusskabel wenn sich ein Hersteller dafür den dünnsten Zwirn rausgesucht hat der zulässig wäre.
Das stimmt schon. Bei mir fällt das halt unter "Inkompatibilitäten etc.". Kann mir gut vorstellen, daß sich ähnlich wie bei Vega bei den Netzteilen schnell die Spreu vom Weizen trennen wird.

So long...
 
@Luxmanl525

Bei Vega gab es eher andere Probleme, ich glaube da lag der Hund in einem übereifrigen Überlastschutz begraben der überempfindlich auf die Lastspitzen reagierte.
 
Hallo zusammen,

@ Wadenbeisser
Wadenbeisser schrieb:
ich glaube da lag der Hund in einem übereifrigen Überlastschutz begraben der überempfindlich auf die Lastspitzen reagierte.
In Verbindung mit den extremen Lastwechseln. Ja. Genauso ist es. Bei manchen NT`s eine Kombination davon. Aber grundlos wird AMD das auch nicht so gemacht haben. Ich habe Vega im übrigen nie so schlecht gesehen, wie manche es meinten. Aber eben Problematisch von den Erfordernissen hierfür eben.

@ DagdaMor
DagdaMor schrieb:
Ich schwöre, wie auch diverse Testsides, auf KFA2 :daumen:. Sehr gute Verarbeitung, innovativ, edles Design UND günstiger im Vergleich zu ähnlichen Karten.
Das kann ich komplett so Unterschreiben. Ich hatte schon einige von denen verbaut für Bekannte in meinem Umkreis und noch nie ein Problem zu Verzeichnen. Unproblematische Karten, die tun was sie sollen und immer in einem vernünftigen Verhältnis von Preis / Leistung. Allerdings kann ich deiner Ausführung im Bezug auf "innovativität und edlem Design" nun wirklich nicht Zustimmen. Ein wenig zuviel des Guten, aber das mag ja auch immer im Blick des Betrachters auch liegen.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
acmilan1899 schrieb:
Ich bin wirklich auf den Vergleichstest der Custom Designs am Donnerstag gespannt. Wer es wohl schafft das beste Gesamtpaket aus Lautstärke, Kühlung und Stromverbrauch abzuliefern? 🤔

Ich schwöre, wie auch diverse Testsides, auf KFA2 :daumen:.
Sehr gute Verarbeitung, innovativ, edles Design UND günstiger
im Vergleich zu ähnlichen Karten. Und teils auch mit BlingBling (wer es denn mag :p).
Immer P/L-Sieger in Tests, wenn sie denn mitgetestet werden :daumen:.
Verstehe nicht, wie man teurere Karten, die nicht mehr können, teils sogar weniger,
kaufen kann, nur weil nen "toller" Name dahintersteht :confused_alt::).
Die KFA2 RTX 3080 lächelt mich schon so an :D.
 
  • Gefällt mir
Reaktionen: Luxmanl525
@Luxmanl525

Ich hatte damit selbst mal bei einem alten Netzteil damit zu kämpfen gehabt, das kuriose war das es mit hochgeschraubten Powerlimit besser wurde, es aber @ Standard oder bei gesenktem Powerlimit zur Abschaltung kam obwohl es noch mehr als genug Reserve hätte.

Ich bin mal gespannt welche Spitzen die neuen Karten raushauen werden...
 
Zurück
Oben