News RTX 4070 & 4060 Ti: Inno3D versteckt die PCIe-Strombuchse hinter dem Rücken

xexex schrieb:
Theoretisch gebe ich dir Recht, praktisch würde sowas jedes Mainboard verteuern und technisch ist das völliger Humbug. Da werden dann 50A Strom quer durch das Mainboard gejagt, nur damit etwas optisch "schöner" aussieht.

Ist bei Servernetzeilen gang und Gäbe. Und kein Hexenwerk. Und da hat es nicht mit Optik zu tun. Es ist schlicht einfacher und nicht Fehleranfällig - wie du notabene selbst festgestellt hast ;)

Und die Mehrkosten werden gering sein - falls überhaupt. Denn der eine Hersteller der alle Anschlüsse auf die Rückseite des Mainboard verlegt hat, hat gesagt, dass dies keine Mehrkosten verursachen würde.
 
AwesomSTUFF schrieb:
Man muss aber auch nicht päpstlicher sein als der Papst...jetzt gehen die Kabel ja (von der GPU gesehen) in Richtung der Seite....hast Du etwa ein Loch in dein Seitenfenster gebohrt? Was ein Schmarn ...
Guck noch mal bei dir rein. Das kabel kann man über einen Radius von 10 cm biegen. Bei dem hier kommt noch ne Abdeckung drauf und muss unten hinter dem pci-e auf 1,5 cm um mindestens 90 Grad gebogen werden, wenn du kein mini ITX hast. Bei einigen Netzteilen geht das gar nicht.
 
Harsiesis schrieb:
Das kabelgedöns gehört eh abgeschafft.

Asus hat an der Computex gezeigt wie es eigentlich sein sollte.

https://www.techpowerup.com/309313/asus-shows-concept-geforce-rtx-4070-without-power-connector
Naja Asus verlegt das Kabel auch nur auf die Rückseite des MB, hier in den News wurde das etwas besser dargestellt:
https://www.computerbase.de/2023-05...us-treibt-das-kabelverstecken-auf-die-spitze/

Ich persönlich finde die Idee super, vor allem mit der "Problematik" der neuen 12 PIN Stecker die zu nah am Stecker geknickt wurden. Zudem wäre das für ITX Builds n Traum, da müssen die Kabel wenn die wie üblich seitlich rausstehen manchmal schon arg gebogen werden, weil kaum Platz zum Seitenteil da ist.
 
Auf das die Kabel schön der Wärme des Kühlkörpers ausgesetzt sind, die Lamellen des Kühlkörpers sich durch das Eigengewicht des Kabels in die Isolierung schneiden, wenn es fein warm wird und es dann zu einen katastrophalen Kurzschluss kommt ....

Echt durchdacht diese Lösung

Micha2k6 schrieb:
. Zudem wäre das für ITX Builds n Traum, da müssen die Kabel wenn die wie üblich seitlich rausstehen manchmal schon arg gebogen werden, weil kaum Platz zum Seitenteil da ist.

Es soll auch Grakas schon gegeben haben, die die Stromstecker gerade bei dem high Midrange am kurzen Ende der Graka hatten, da diese nicht so extrem wuchtige Kühler brauchten.
Oder dafür extra eine Einbuchtung vorgesehen hatten, damit nichts übersteht. Was man mit den 12VHPWR Wunder ja nicht mehr machen kann so einfach.
 
Zuletzt bearbeitet:
Ein paar Kabel dürfen ruhig herumhängen im Case. Gefällt mir besser als diese "Kunstwerke" von PCs. Ich finde, ein PC sollte nach PC ausschauen.
 
Replay86 schrieb:
Ich finde, ein PC sollte nach PC ausschauen.
Für dich bedeutet das mit Kabel, weil du es nur so kennst. Künftige Generationen werden beim gleichen Spruch vielleicht ein nahezu kabelloses Inneres vor Augen haben. 🙂
 
xexex schrieb:
Das Bild und das Video zeigt wieso man am "Status Quo" gearbeitet hat, eben um Platz auf der Platine zu sparen und die Kühlung zu verbessern.
Das ist das, was du dir daraus zusammenfantasierst; aber nicht das, was der Realität entspricht.
Wenn in den offiziellen Specs nur von Leistung und nie von Bauraum die Rede ist, wird der primäre Faktor sicher nicht der Bauraum sein.

xexex schrieb:
Wenn es darum primär gegangen wäre, hätte man auch einen viel größeren Connector wählen können, dann hätte man die Problematik mit abrauchenden Steckern nicht. Schaue dir einfach mal das Video an, dann siehst du das Designziel.
BS.
In diesen Video ist der falsche Stecker zu sehen und dann noch aus der falschen GPU-Generation.
Als dieses Video entstand, war die aktuelle Gen. noch in der Konzeptionsphase.

xexex schrieb:
Natürlich brauchte man einen Stecker der auch mehr als die lächerlichen 150 Watt verträgt, die bis dahin spezifiziert waren und man wollte auch einen anderen Stecker, damit Leute nicht auf "dumme Gedanken" kommen. Die Entscheidung für Microfit war primär aus Platzgründen gefallen.
Absolut unlogisch.
Warum ist der 12VHPWR dann immer liegend montiert und nicht stehend, wie bei den RTX3000er-Karten?
Wenn, lt. deiner Auffassung, Bauraum die oberste Prämisse gewesen ist, warum steht die Buchse dann nicht hochkant, sondern ist liegend montiert? Braucht ja immerhin in etwa doppelt so viel Platz auf dem PCB...

Den Logikfehler erkennst du wahrscheinlich selbst...
 
Mr. Smith schrieb:
In diesen Video ist der falsche Stecker zu sehen und dann noch aus der falschen GPU-Generation.
Wie kam es denn zu diesem Stecker? Weil die PCI-SIG unbedingt einen neuen wollte oder weil Nvidia damit vorgeprescht ist? Was der Hintergrund für einen möglichst kleinen Stecker war, wird in dem Video ausdrücklich erklärt.

Mr. Smith schrieb:
Warum ist der 12VHPWR dann immer liegend montiert und nicht stehend, wie bei den RTX3000er-Karten?
Weil er auch liegend in erster Linie viel weniger Platz verbraucht als die bisherigen Lösungen, es technisch aber der bessere Ansatz ist. Der Strom muss ja letztlich auch auf der Platine verteilt werden und der Stecker wird dadurch stabiler.
1686574220840.png

https://www.igorslab.de/en/nvidia-g...s-edition-24gb-review-drink-less-work-more/3/

Auf die Größe der Platine hat es keine Auswirkungen gehabt.
1686574489450.png

https://www.igorslab.de/en/nvidia-g...e-and-common-decadence-if-price-is-not-all/2/

Mr. Smith schrieb:
Den Logikfehler erkennst du wahrscheinlich selbst...
Was für einen "Logikfehler"? Nvidia erklärt doch selbst was das Designziel war, der hat sich von der Ampere zu Ada Generation kein bisschen verändert, die Platine ist gleich "klein" und das Design identisch.
 
Zuletzt bearbeitet:
xexex schrieb:
Das sind die bisher genutzten Stecker:
Anhang anzeigen 1366035

Das wäre dann doch die logische Entwicklung oder?
Anhang anzeigen 1366036

Entschieden hat man sich aber dafür:
Anhang anzeigen 1366038

Also bitte, einfach nochmal nachdenken, was das primäre Ziel gewesen ist.
Bitte; du hast keine Ahnung, wovon du überhaupt sprichst...

Mega-Fit ist aus diversesten Gründen einfach Blödsinn. Das ist für einen anderen Einsatzzweck spezifiziert.
Und ganz ungünstig: Es lässt sich technisch nicht umsetzen, weil es für Mega-Fit nicht mehr als 12Pin-Connectoren gibt. 12VHPWR ist ein 16Pin-Connector.

Nebenbei redest du hier von Maximal-Angaben (AWG10). Das ist realitätsfern. Da hätte eine einzige Ader bereits 5,26er Querschnitt. Das entspricht ca. HighEnd-Lautsprecherkabeln im HeimKino-Bereich.

Das dann aber 12x + 4x Ground. Das Kabel von der Graka zum NT soll dann wieviel wiegen? 1 Pfund?
Und ein Rohrbieger wird gleich mitgeliefert, damit man die 180° Biegung noch schön hinbekommt ^^
Leider muss jetzt jedes Case 10cm breiter werden, wegen des riesigen Biegeradius... schade.

Micro-Fit ist im Grunde ein guter Connector. Es widersteht höheren Temps und hat alle gängigen Mounting-Möglichkeiten... unter anderem PCB-Press-fit. Das wäre dann platzssparend gewesen. Stattdessen hat man die Snap-in PCB-Lock Variante gewählt.

Wenn schlechte Terminals in den Stecker gepackt werden, ist das ein völlig anderes Thema.

xexex schrieb:
Weil er auch liegend in erster Linie viel weniger Platz verbraucht als die bisherigen Lösungen, es technisch aber der bessere Ansatz ist.
Nein, ist es nicht. Es ist irrelevant.

xexex schrieb:
Auf die Größe der Platine hat es keine Auswirkungen gehabt.

Was für einen "Logikfehler"? Nvidia erklärt doch selbst was das Designziel war, der hat sich von der Ampere zu Ada Generation kein bisschen verändert, die Platine ist gleich "klein".
Das PCB der RTX3090 ist in den oberen 20% komplett leer. Vorder- wie rückseitig.
Die scheinen ja imense Platzprobleme gehabt zu haben.... da ist bis auf 2 SLI-Ports genau nichts.
Gut, dass sie den neuen Connector so platzsparend entworfen haben. Wäre fest eng geworden.

02.PNG

Unterstützt das deine tolle These, dass der Bauraum auf den Platinen so verdammt knapp ist?
In dem Bauraum kannst du noch 6x 8Pin unterbringen... Mann, ist das knapp.
 
  • Gefällt mir
Reaktionen: sikarr
Mr. Smith schrieb:
Unterstützt das deine tolle These, dass der Bauraum auf den Platinen so verdammt knapp ist?
Was für eine "These", wenn Nvidia den Entwurf machte und genau das als Ziel der Entwicklung angibt? Wieso auch immer der Platz bei der 3090 noch frei war, bei der 4090 ist er es nicht mehr und das Ziel hat sich nicht verändert. Es geht doch nicht nur um den Platz auf der Platine, es insgesamt um den benötigten Platz, ein möglichst kleiner Stecker bedeutet maximale Fläche für den Kühler und genau deshalb entschied man sich für Micro-Fit, sonst hätte man auch einen 12-Pin Mini-Fit nehmen können.

Ich drücke es für dich mal einfacher aus, für "mehr Saft" hätte man nicht Micro-Fit ausgewählt, denn da waren die bisherigen Stecker weit höher spezifiziert, einzig die eigentliche PCIe Spezifikation lag niedriger. Was sprach wohl gegen einen größeren Mini-Fit Verbinder, die gibt es auch mit 24-Pin. Es ist deine "These" die auf keinem Fall aufgeht, weil über Mini-Fit lässt sich auf jeden Fall mehr Strom durchjagen als über Micro-Fit und trotzdem entschied man sich für den kleineren Stecker.
 
Zuletzt bearbeitet:
Sebbi schrieb:
Auf das die Kabel schön der Wärme des Kühlkörpers ausgesetzt sind, die Lamellen des Kühlkörpers sich durch das Eigengewicht des Kabels in die Isolierung schneiden, wenn es fein warm wird und es dann zu einen katastrophalen Kurzschluss kommt ....

Echt durchdacht diese Lösung
Was sind das denn für Weltuntergangsphantasien? Die Kabel schneiden sich ganz sicher nicht durch ihr "Eigengewicht" durch die Lamellen. Geh mal in die Küche und leg eine Tomate auf das schärfste Messer, das du hast. Da bewegt sich auch nichts, da wird auch nichts nennenswert warm durch die Abwärme des Kühlers. Da wird absolut nichts passieren.
 
xexex schrieb:
Was für eine "These", wenn Nvidia den Entwurf machte und genau das als Ziel der Entwicklung angibt? Wieso auch immer der Platz bei der 3090 noch frei war, bei der 4090 ist er es nicht mehr und das Ziel hat sich nicht verändert. und genau deshalb entschied man sich für Micro-Fit, sonst hätte man auch einen 12-Pin Mini-Fit nehmen können.
Erst zeigst du Videos und PCB-Bilder der 3090 und argumentierst ständig mit Bauraum auf der Platine und trotzdem sind 20% der Platine absolut leer. Jetzt kommst du mit der 4090 daher...

Völlig anderes PCB, völlig anderer Stecker. Schon das PCB der 3090TI hatte nichts mehr mit der 3090 zu tun.
Nichtmal die Anzahl der PCB-Layer stimmt noch überin.

Äpfel und Birnen. Kennste?!

xexex schrieb:
Ich drücke es für dich mal einfacher aus...
Ich drücke mich auch nochmal einfacher aus:
Dein 3 Jahre altes Video, der letzten GPU-Generation, mit einem überhaupt nicht mehr verwendeten Stecker, in einer überhaupt nicht mehr verwendeten Montage-Position untermauert hier überhaupt gar nichts. Das ist ungefähr so relevant wie 3,5" FloppyDisks.

Zeig mir etwas zur aktuellen Gen. und dem aktuellen Stecker und nicht dem Schnee von gestern.
Und zwar so, dass ersichtlich ist, dass der Bauraum an erster Stelle steht.
Da wirst du genau gar nichts finden.

xexex schrieb:
Es geht doch nicht nur um den Platz auf der Platine, es insgesamt um den benötigten Platz, ein möglichst kleiner Stecker bedeutet maximale Fläche für den Kühler...
What...?
Nach deiner Logik dürfte dann kein Kühler über das PCB, der Karte hinausgehen xD
Der Kühler der 4090 ist nochmal gut 60% länger als das PCB.
Was interessiert mich die Bestückung des PCB's, wenn der Kühler überlang, überhoch und überdick ist?
 
  • Gefällt mir
Reaktionen: sikarr
Mr. Smith schrieb:
Erst zeigst du Videos und PCB-Bilder der 3090 und argumentierst ständig mit Bauraum auf der Platine und trotzdem sind 20% der Platine absolut leer. Jetzt kommst du mit der 4090 daher...
Nvidia dokumentiert in dem Video ganz genau weshalb sie welche Schritte gegangen sind und die Entscheidung zu Micro-Fit wurde dort getroffen, und später bei der Spezifikation beibehalten. Beantworte mir doch einfach die simple Frage, statt blödsinnige Thesen aufzustellen und von mir irgendwelche "Beweise" zu wollen.

Was sprach wohl gegen einen größeren Mini-Fit Verbinder, wenn es es laut deiner These nur um "mehr Strom" ging?
 
xexex schrieb:
Was sprach wohl gegen einen größeren Mini-Fit Verbinder, wenn es es laut deiner These nur um "mehr Strom" ging?
Was wohl..? Das was überall dagegen spricht. KOSTEN.
Der MicroFit kostet einen Bruchteil und man benötigt für alle kommenden Generationen nur noch einen Socket.
Das ist günstig... BWL, Junge. Nicht Bauraum.
 
Wie viele haben ihren Rechner eigentlich als gläsenernes Prestigeobjekt mit perfektem Kabelmanagement und mit schön viel RGB auf'm Tisch stehen? Also ganz ehrlich, ich nicht. Der steht unterm Tisch, ich schau da nicht rein und das Dingen soll seine Arbeit möglichst leise und unauffällig verrichten. Geht das nur mir so...?
 
  • Gefällt mir
Reaktionen: Aquilid
Mr. Smith schrieb:
Der MicroFit kostet einen Bruchteil
Jetzt machst du dich aber lächerlich! Du willst wirklich behaupten die seit gut 20 Jahren überall eingesetzten 4,2mm Stecker und Buchsen, die jeder Hersteller im Programm hat wären teurer als die neuen 3.0mm Komponenten? Klar die Kosten waren es! Vorher war es noch "mehr Strom", ist halt nur blöd wenn die 3.0mm Komponenten gut das doppelte kosten.
 
Zuletzt bearbeitet:
xexex schrieb:
Jetzt machst du dich aber lächerlich! Du willst wirklich behaupten die seit gut 20 Jahren überall eingesetzten 4,2mm Stecker und Buchsen, die jeder Hersteller im Programm hat wären teurer als die neuen 3.0mm Komponenten?
Google kennst du?

Die Kosten sind in etwa 40% dessen, was die Bestückung mit MiniFit kostet.
Und nein, du brauchst hier garnichts verdrehen. Natürlich ist der Faktor Leistung Punkt 1. Ist er und bleibt er.
Und ein einzelner Connector hat bei den HighEnd-Modellen natürlich den Vorteil, dass er weniger "überspricht" als 3x 8Pin. Auch ein Faktor... aber sicher nicht der Bauraum.

Der Kosten-Faktor ist, gleich wie der Bauraum, ein positiver Nebeneffekt.

Ist auch in einer Fertigungsstraße leicht einzutakten, wenn alle Karten einfach nur 1x MicroFit-Socket erhalten müssen. Egal was kommt, erstmal 1x MicroFit drauf und passt. Warum haben selbst die kleinsten RTX4000 aus nV's Fertigung einen 12VHPWR..? Bauraum auf der noch leereren Platine? Nett ^^

Selbst die 115W RTX4060 NonTi hat einen 12VHPWR-Anschluss... Was meinst du, warum hier der "HighEnd-bis zu 600W"-Socket drauf sitzt? Rein techn. befeuerst du mit dem Connector die Karte 5,2x
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
Mr. Smith schrieb:
Und ein einzelner Connector hat bei den HighEnd-Modellen natürlich den Vorteil, dass er weniger "überspricht" als 3x 8Pin. Auch ein Faktor... aber sicher nicht der Bauraum.
Ich kann es nur nochmal wiederholen ein Mini-Fit Verbinder, kann mehr Strom übertragen als ein Micro-Fit und kannst gerne die Preise bei Mouser oder dem Händler deiner Wahl vergleichen, Mini-Fit ist wesentlich günstiger und seit Jahren von allen Herstellern erhältlich.

Man entschied sich aber für Micro-Fit, erklärt es im Video aus welchen Gründen und trotzdem reimst du dir deine Interpretation zusammen. Die Entscheidung für 12+4-Pin Micro-Fit (3mm/10A) und nicht für 12+4-Pin Mini-Fit (4,2mm/20A), ist nur aus einem einzigen primären Grund getroffen worden.

Wegen mir, glaube aber weiter was du willst, ich glaube eine weitere Diskussion darüber interessiert hier keinen mehr, das Video von Nvidia erklärt dazu sowieso alles.
 
HorstSan schrieb:
Das Ding kann auf keinen Fall schonmal real in einem Mainboard gesteckt haben... muss ein Render sein

inno3d-hidden-connector-4_680px.jpg

(aus dem Luxx ausgeliehen)
 
  • Gefällt mir
Reaktionen: SmashD
Zurück
Oben