News GeForce RTX 3000 FE: Nvidia bestätigt neuen Kühler und 12-Pin-Stromstecker

Wenn ich mir das hier so durchlese wird auch echt davon ausgegangen, dass er überwiegende Teil, der diese Karten einbaut, blöd und blöder als Blöd ist. Dass man beim Einstecken mit einem gewissen Gegendruck arbeiten muss, sollte jedem klar sein.
Trotzdem dürfen die Custom Varianten gerne durchdachter ausfallen =) Warten wir mal ab was schlussendlich im September auf den Markt kommt.
 
D0m1n4t0r schrieb:
Also habe ich das richtig verstanden dass man einen Adapter braucht um zwei 8-Pin Stecker vom Netzteil an einen 12-Pin Anschluss der Grafikkarte anzuschliessen ?
Das hiesse ja dann dass die Nvidia Karten die über zwei 12-Pin Anschlüsse verfügen ein Netzteil mit vier 8-Pin Anschlüssen voraussetzen.

Die Nvidia Karte hat nur einen 12-Pin-Stecker. Daher brauchst Du am Netzteil nur 2x 8-Pin-Stecker. Dass ist bei Netzteilen seit einigen Jahren Standard. Sollte also für die meisten kein Problem sein.
 
Mein erster Gedanke war warum nicht gleich sowas:
1598471874695.png


Ein Schraubterminal am PCB wäre wenigstens robust und das Kabel in verschiedene Richtungen ausrichtbar sowie der Übergangswiderstand effektiv minimiert (was auf der 12V Schiene schonmal kritisch sein kann) nur mal vom technischen Standpunkt betrachtet. Krafteinwirkung aufs PCB wäre auch minimal (Rotation).
Das ganze gepart mit guten Kupferkabeln is mE auch etwas sexier als die Molex Stecker mit vielen Einzelkabeln...
just my 2 cents... Kaufen würd ich so eine GPU eh nicht... Die Verlustleistung is madness...
 
  • Gefällt mir
Reaktionen: Maxxx800 und Colindo
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
Und selbst da kommt nen Trottel an und dreht das Gewinde der Schrauben platt oder reist alles komplett raus^^
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Kalsarikännit
Haben se den Stecker tatsächlich selber entwickelt oder haben se einfach nur in den Katalog von Molex geschaut?
 
haha schrieb:
oder haben se einfach nur in den Katalog von Molex geschaut?
Die haben den Katalog von Molex aufgemacht und gesagt: Das da, und die Kodierung soll soundso Aussehen. Molex hat dann gesagt: Alles klar, bekommt ihr.

Es sieht auch so aus, als ob da keine 12 Pins raus kommen, sondern das die Pins hinten kombiniert werden. entsprechend sind das zwar Standard Komponenten, im Katalog zu kaufen bekommst das so bisher aber nicht.

Dadurch hat Nvidia das Teil (mit) Entwickelt.
Und Molex Produziert es.
 
Zuletzt bearbeitet:
Knatschsack schrieb:
Warum? Oder muss man sich proaktiv schonmal über die Preise aufregen, wenn man ein unbehandeltes Preiserhöhungstrauma aus der Vorgängergeneration hat? Der Stachel scheint bei vielen Leuten tief zu sitzen.
Dass das Top Produkt mehr kosten könnte... ok. Ich glaube kaum, dass sich Einsteigersegment und Mittelfeld verschiebt, nur weil Nvidia diese Preiserhöhungsnummer wieder und wieder durchzieht. Wer nur bestimmtes Budget für ne GPU hat, wird dabei bleiben, egal welche Generation da gerade aktuell ist. Außerdem wurde Nvidia ja gerade bei aktuellen GPUs dafür kritisiert zu sehr die Preise erhöht zu haben, ohne dass dem entsprechend Mehrleistung gegenübersteht (von Raytracing mal abgesehen).

Mich verwirrt, dass es eine 3080 mit 10 GB, aber ne 3070 mit 16 GB geben soll. Wenngleich es eine 3080 mit 20 GB geben soll, frage ich mich, welche Kunden Nvidia damit ansprechen will. Vielleicht unterscheiden, die zwischen 4K und nicht-4k. Während die 3070 vielleicht Einsteiger-4K, 3080 (20 GB) Mittelklasse-4K und die 3090 Oberklasse-4K ist. Und für nicht-4K gelten dann alle kleineren Modelle und die 3080 (10GB) als Oberklasse.
Ich denke sowas würde ich auch auf die Preisgestaltung Einfluss haben.

Daher meine Vermutung, dass die Preise in etwa gleich bleiben, jedoch die 3080 (20GB) dann bei $1200 liegt, um da die große Lücke zu füllen. Leider reden bisherige Leaks bisher immer nur von der 3080 ohne zwischen dem Speicherausbau zu unterscheiden. Wenn die 3070 aber Einsteiger-4K ist, bin ich mir nicht sicher, ob die bisher in Leaks genannten Preise so sinnvoll sind. Der 4k-Spieler wird sicher generell mehr Geld ausgeben bereit sein.

RTX 3090 - $1499~
RTX 3080 - $899~
RTX 3070 - $699~

Quelle

Die dollerpreise sind schön und gut aber die werden in Europa definitiv anders liegen. Von d.h gebe ich da erstmal nichts auf die Preise.
Wenn die Euro preise drausen sind dann berichtige ich mich da auch gerne, nicht so wie andere.

Ich sage mal, wie du geschrieben hast wird sich das etwas besser heraus stellen für 4k spieler um dies attraktiver zu machen und/oder die HD spieler an zu fixen.

Mal abwarten.
In dem Punkt mit dem Geld ausgebe muss ich dir da allerdings widersprechen. Ich verdiene genug ( ohne großkotzig zu sein ) aber 1000 euro für die graka. Aber auf keinenfall... so denke nicht nur ich.

Wie werden einfach abwarten bis es final ist und was AMD noch leistet.
Danke abber für deinen Beitrag :)
 
@shortex
Die Dollerpreise in Euro + (aktuell) 16% MWSt sind fast 1:1. Daher denke ich, ist das ein guter Richtwert.

Ich habe in dem anderen News-Fred wo es gerade hieß, dass die 3080 erstmal nur mit 10 GB geschrieben, dass ich 1000€ zum Spielen auf 4K in vernünftigen Grafiksettings ausgeben würde. Aber wenn das nicht reicht, ich nicht zur 3090 gehen werde (auch wenn ichs mir auch leisten könnte - ohne großkotzig zu sein ;) ), sondern zur 3070 oder 3060 oder gleich AMD (auch wenn ich einer der Elfen bin, die es nach Aussage einiger AMD-Fans nicht geben soll, die Probleme mit AMD Treiber und so hatten). Aber dann verzichte ich auf 4K anstatt Nvidia bei seiner Produktstrategie zu unterstützen.
 
  • Gefällt mir
Reaktionen: shortex
  • Gefällt mir
Reaktionen: GINAC
florian. schrieb:
Dadurch hat Nvidia das Teil (mit) Entwickelt.
Und Molex Produziert es.
Das dürfte ein Stinknormaler Molex Mirco Fit in der Leiterplattenstiftleisten Variante sein, wo hinten kombiniert weiter geführt wird. Da wurde nix entwickelt und extra produziert.

Tommy war schneller :)
 
  • Gefällt mir
Reaktionen: Tommy Hewitt
Knatschsack schrieb:
@shortex
Die Dollerpreise in Euro + (aktuell) 16% MWSt sind fast 1:1. Daher denke ich, ist das ein guter Richtwert.

Ich habe in dem anderen News-Fred wo es gerade hieß, dass die 3080 erstmal nur mit 10 GB geschrieben, dass ich 1000€ zum Spielen auf 4K in vernünftigen Grafiksettings ausgeben würde. Aber wenn das nicht reicht, ich nicht zur 3090 gehen werde (auch wenn ichs mir auch leisten könnte - ohne großkotzig zu sein ;) ), sondern zur 3070 oder 3060 oder gleich AMD (auch wenn ich einer der Elfen bin, die es nach Aussage einiger AMD-Fans nicht geben soll, die Probleme mit AMD Treiber und so hatten). Aber dann verzichte ich auf 4K anstatt Nvidia bei seiner Produktstrategie zu unterstützen.
Rechnerisch ja ! Aber in Europa werden generell andere Preise aufgerufen. Das ist einfach in allen bereichen so.
Würde mich ja auch mehr freuen wenn man das so sagen könnte.
Ich rechne mit 2000 euro für die 3090... ohne zu übertreiben.
Aber gut gesagt und schön das du das genauso siehst.
Würde auch gerne wieder eine AMD kaufen. Deswegen erstmal eine pss5 und mal schauen wie man die wieder supporten kann
 
  • Gefällt mir
Reaktionen: Knatschsack
HisN schrieb:
Gerade die Sata Stecker brechen die User doch dauernd von ihren Platten/SSDs.
zum glück hab ich noch nie gesehen wie jemand einen sata stecker abrupft. ich wüsste nicht ob ich lachen oder weinen sollte ^^'
ein mindestmaß an feingefühl ist beim pc dann doch nötig. ich fand sata ab version 2 (mit dem clip) ungemein toll. die ide flachkabel waren öfter mal ähnlich schwergängig wie die billig gemachten molex stecker. gefühlt sind die früher besser gewesen, heute wackelt da jeder pin fröhlich rum. hauptsache nen cent an dem teil gespart mit dem dann 1000 € hardware versorgt wird :freak:
was ich mal erlebt habe war dass jemand versuchte ein LAN Kabel abzuziehen. Mittels kräftigem Ruck gut nen meter von der Buchse entfernt. "Das geht auch so!" - ging auch. die Buchse machte 'bei Fuß'.
 
Ex3cuter schrieb:
Warum muss man etwas ändern, was jahrelang gut ging? Nur damit man speziell ist? Hat Nvidia sich Apple als Vorbild genommen?
Antwort: 80% Marketshare!
Da kann man sowas schon Mal machen...
 
  • Gefällt mir
Reaktionen: Mcr-King
SSD960 schrieb:
… wichtiger: noch teurer als die 2080 Serie?

Naja, ein schickes nVidia Propagandavideo, dass dann die Preiserhoehung bei den (Founders Edition) RTX Ampere Grafikkarten rechtfertigt, zumal man sich mit der Platzierung des Stecker-Ports designtechnisch gewiss nicht mit Ruhm bekleckert hat und andere Dinge wie bspw. die Vapor Chamber nichts neues sind und auch bei anderen guenstigeren Geraeten oder Loesungen (bspw. XBOX oder den vermutlich guenstigeren nVidia RTX Turing Vorgaengerkarten) zum Einsatz kommt.

Man versucht natuerlich soviele Kaeiufer wie moeglich mit den hauseigenen Founders Edition Produkten abzugreifen, um den Gewinn damit zu maximieren (um irgendwann vielleicht ganz auf Boardpartner verzichten zu koennen(?), denn bei den Topmodellen macht man das ja i.d.R. schon so).
 
  • Gefällt mir
Reaktionen: Mcr-King
Ex3cuter schrieb:
Warum muss man etwas ändern, was jahrelang gut ging? Nur damit man speziell ist? Hat Nvidia sich Apple als Vorbild genommen?

2x8 Pin können 300 Watt liefern. Der neue Stecker kann 400 Watt.
 
HighTech-Freak schrieb:
Mein erster Gedanke war warum nicht gleich sowas:
ich sehe es deutlich britzeln und brutzeln wegen Kurzschlüssen und vertauschten Adern :)
 
Wenn die GPUs wirklich so lang werden, brauchen sicherlich viele nen neues Gehäuse :D
 
Zurück
Oben