News GeForce RTX 3000 FE: Nvidia bestätigt neuen Kühler und 12-Pin-Stromstecker

Moep89 schrieb:
Autsch, wenn das stimmt, dann gute Nacht. Ich habe meine 5700XT noch kein Jahr und die bestimmt schon gut 25 Mal an- und abgesteckt. Wenn der Stecker für so wenige Zyklen ausgelegt ist, dann stapelt man da entweder extrem tief oder das Konzept ist genau so wie befürchtet: Viel zu instabil.
Lass den mitgelieferten Adapter doch einfach dran wenn du umbaust?
 
.... und noch ein 850W NT dazu bitte.
Also geben wir mind. noch 150 euro extra aus. Netter Masterplan Nvidia...nicht ^^
 
shortex schrieb:
Die Preise dürften gewaltig sein.

Warum? Oder muss man sich proaktiv schonmal über die Preise aufregen, wenn man ein unbehandeltes Preiserhöhungstrauma aus der Vorgängergeneration hat? Der Stachel scheint bei vielen Leuten tief zu sitzen.
Dass das Top Produkt mehr kosten könnte... ok. Ich glaube kaum, dass sich Einsteigersegment und Mittelfeld verschiebt, nur weil Nvidia diese Preiserhöhungsnummer wieder und wieder durchzieht. Wer nur bestimmtes Budget für ne GPU hat, wird dabei bleiben, egal welche Generation da gerade aktuell ist. Außerdem wurde Nvidia ja gerade bei aktuellen GPUs dafür kritisiert zu sehr die Preise erhöht zu haben, ohne dass dem entsprechend Mehrleistung gegenübersteht (von Raytracing mal abgesehen).

Mich verwirrt, dass es eine 3080 mit 10 GB, aber ne 3070 mit 16 GB geben soll. Wenngleich es eine 3080 mit 20 GB geben soll, frage ich mich, welche Kunden Nvidia damit ansprechen will. Vielleicht unterscheiden, die zwischen 4K und nicht-4k. Während die 3070 vielleicht Einsteiger-4K, 3080 (20 GB) Mittelklasse-4K und die 3090 Oberklasse-4K ist. Und für nicht-4K gelten dann alle kleineren Modelle und die 3080 (10GB) als Oberklasse.
Ich denke sowas würde ich auch auf die Preisgestaltung Einfluss haben.

Daher meine Vermutung, dass die Preise in etwa gleich bleiben, jedoch die 3080 (20GB) dann bei $1200 liegt, um da die große Lücke zu füllen. Leider reden bisherige Leaks bisher immer nur von der 3080 ohne zwischen dem Speicherausbau zu unterscheiden. Wenn die 3070 aber Einsteiger-4K ist, bin ich mir nicht sicher, ob die bisher in Leaks genannten Preise so sinnvoll sind. Der 4k-Spieler wird sicher generell mehr Geld ausgeben bereit sein.

RTX 3090 - $1499~
RTX 3080 - $899~
RTX 3070 - $699~

Quelle
 
milliardo schrieb:
Was das Design mit den CPU-Temps macht wird in der Tat spannend. "integriert" sich die Karte damit in das (wohl verbreitetste) Airflow-Konzept und wirft die Luft indirekt in den meisten Fällen nicht einfach ins Gehäuse. Mal schauen.

Wie schon an anderer Stelle geschrieben kaufe ich nie eine Founder. Kein Geheimnis das es bei mir EVGA wird. Aber dort auch nur wenn die was gescheites machen. Cb wird die Founder dann schon mal einbauen. Da bin ich dann gespannt.
 
OneShot schrieb:
Ich frage mich immer noch wie sich dann die Leistungsaufnahme zum Bereich Performance verhalten wird, wenn die neue Grafikkarten generation 30% mehr Leistung oder 40% mehr schafft aber 50% mehr Strom frisst, (beim Highendmodel
Kann jeder sehen wie er will. Mir ist das komplett Wumpe. Solange die Karte ihre Leistung bringt, in vernünftigen Temperaturbereichen betrieben werden kann und keine komischen Macken wie #970Gate oder übel fiepende Spulen hat, kann die von mir aus strom Saufen wie sie will.
Ergänzung ()

Knatschsack schrieb:
Mich verwirrt, dass es eine 3080 mit 10 GB, aber ne 3070 mit 16 GB geben soll. Wenngleich es eine 3080 mit 20 GB geben soll, frage ich mich, welche Kunden Nvidia damit ansprechen will. Vielleicht unterscheiden, die zwischen 4K und nicht-4k. Während die 3070 vielleicht Einsteiger-4K, 3080 (20 GB) Mittelklasse-4K und die 3090 Oberklasse-4K ist. Und für nicht-4K gelten dann alle kleineren Modelle und die 3080 (10GB) als Oberklasse.
Ich denke sowas würde ich auch auf die Preisgestaltung Einfluss haben.
die "over 9000!!!"-FPS Fraktion, die dran glaubt dass eine gewisse sinnlos hohe Zahl in der FPS-Anzeige ihnen einen Aimbot in den Finger verpflanzt. Da sind keine 20 GB oder 16 GB nötig, selbst 6 oder 8 würden wohl dicke reichen.
 
RaptorTP schrieb:
Vor allem wenn du das Teil auf Wasser umbaust, schaut dann der Schniedel da raus, oder wie ?

YMMD 😂😂
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und RaptorTP
strempe schrieb:
Die Vorstellung gefällt aber wenn der Kühler ne Gewisse Temperatur erreicht wirds doof. Ich glaub mehr als 60°C sollten die Kabel nicht sehen...
Je nach Art der Isolierung kannst du von bis zu 260grad ausgehen.
Die Ummantelung und jeweilige Lötstelle geben da Hand in Hand auf.
als erstes brennt aber der Stecker

Edit: 200grad sind es A3BAF946-A790-40F2-B9C2-DE418B0D50BB.jpeg
 
  • Gefällt mir
Reaktionen: RaptorTP
Sydenth schrieb:
Ihr vergesst den Kühler. Gut möglich, dass der so designt ist, dass er den Stecker umbaut und so den Großteil des Einsteckdrucks abfängt ;)
Nur blöd wenn man sich einen Wasserkühler montieren will der statt 3 Slots dann nur noch einen Slot hoch ist. Mal schauen was Watercool und Aquacomputer draus machen. 😕
 
|SoulReaver| schrieb:
Wenn die Founder mit der Kühllösung so raus kommt ist das nach der GTX 295 der zweitgrößte Blödsinn den ich von Nvidia gesehen habe. Und wenn du dir diese Karte mal in einen PC denkst ist es klar. Die GTX 295 Single PCB hat damals auch hinten ins Gehäuse warme Luft geblasen. Ich hatte eine damals. Und Die neue Karte egal ob der hintere Lüfter ansaugt oder Luft in Richtung CPU bläst beides ist sagen wir mal ohne Entgleisung sehr speziell. Und auch wenn die Karte recht tief ist und nur der halbe Lüfter also der halbe Querschnitt nach oben/unten geht wird der CPU Kühler ganz schön zu tun haben. Spannend wird es dann wenn du einen 9900K oder gar einen 10900K oder Ryzen XY mit 5Ghz drin hast. Was denkst du passiert unter dem CPU Kühler, wenn eine Grafikkarte mit sagen wir mal 2000 Umdrehungen egal in welche Richtung gegen den CPU Kühler arbeitet?

Das mal zu meiner Grobmotorik....

So ein Design ist halt wahrlich nichts neues, sei es die Sapphire R9 Fury Tri-X, Sapphire RX Vega 56 Pulse oder gar meine 2060S SC Ultra von EVGA, die haben alle ein Design, wo der vorderste Lüfter durch den Heatsink bläßt, richtung CPU. Und ich finde das nicht so verkehrt. Die standard Lüfter blasen die warme Luft auch ohne sowas einfach hinten im Gehäuse rum. Durch den Airflow würde der CPU Kühler das so oder so aufnehmen, aber mit der Herangehensweiße, einen Großteil der Luft nicht um die GPU zirkulieren zu lassen (Was sie noch weiter erhitzt), schafft man einen Teil eben sofort weg und der Luftstrom befördert es raus. Ich sehe da nichts kritisches.

Mal ein paar Beispielbilder:
PowerColor-Red-Dragon-Vega56-3_D05B0643BD8740A49F1586325FD2F280.jpg

Sapphire-RX-Vega56-Pulse-Back-1024x491.jpg

sapphire-trix-fury-cooler.jpg
 
  • Gefällt mir
Reaktionen: noxcivi und xexex
FX-Multimedia schrieb:
Was ist daran alles positiv? Ein Stecker den man nicht unbedingt braucht (und proprietär ist) und ein Design um massiv Wärme abzutransportieren was für sehr hohe Leistungsaufnahme steht. Erinnert mich an die Fermi Generation... Was soll daran gut sein? O.o

Es werden Milionen von diesen 8Pol Stecker hergestellt und da brauchen bestimmte karten 2-3 Stück.
Und jetzt reicht ein kleiner 12Pin Anschluss, der die größe eines 8Pin hat.

Und jetzt stell dir den Ressourcen vorteil beim 12pin zum 8Pin vor...
Und ja am Anfang gibt es viele Adapter die Ressourcen mäßig wieder mist sind. Aber man muss ja mal anfangen ohne gleich neue Netzteile zu kaufen, die noch mehr Ressourcen fressen.

Und Nvidia wird nix auf den Mark werfen was sie nicht getestet haben und einfach wegschmilzt.


Was hier rumgemault wird echt schlimm.
Seht doch mal das Positive daran und sucht keine Gründe warum es schlecht ist.
 
  • Gefällt mir
Reaktionen: xexex
@MaW85
Nun ja die Realität sieht derzeit einfach so aus dass es nichts Positives an sich hat. Und die Aussage dass NV nichts auf dem Markt bringen wird was sie vorher nicht getestet haben lass ich jetzt mal unkommentiert stehen und schaue einfach auf die lange Geschichte von Fehlentwicklungen zurück...
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Thor-75 schrieb:

Das würde wahrlich perfekt zu Nvidia passen. Die wissen ganz genau, dass 2080ti User keine 3080 mit 10GB kaufen würden, also bleibt nur der Griff zur 3090. :D Natürlich kostet die 3090 auch mehr als die 2080ti, alleine schon aufgrund des mehr als verdoppelten Speichers. Sie bleibt aber günstiger als eine TITAN RTX und spricht damit mehr Kunden an als die TITAN. :) Mit den Specs der vorherigen TITAN sieht die 3090 auch gleich viel günstiger aus. :) Jetzt muss nur noch die RT-Performance passen. Da muss wesentlich mehr kommen, damit auch am Ende eine 3050 zumindest die Power besitzt RT unter 1080p an den Mann zu bringen. :)
 
Cruentatus schrieb:
Aber mal realistisch betrachtet: Glaubt hier ernsthaft jemand dass Nvidia so einen riesigen Aufwand zum Spaß betreibt? Die Dinger werden einfach so brutalst Hitze produzieren dass sie gar keine andere Wahl hatten als ganz tief in die Trickkiste zu greifen.
Tatsächlich gehe ich davon aus, dass man einen Kühler für alle drei Karten entwickelt hat und nicht für 3 Karten drei unterschiedliche, also wird der Kühler wohl nur bei der großen Karte wirklich "nötig" sein.
Ebenso glaube ich das man zwar die Spiele/Cuda Leistung verbessert hat, aber eben auch die Tensor und Raytracing Kerne deutlich mehr Bumms haben werden.
Eine große Leistungsaufnahme, wird also höchst wahrscheinlich von der gleichzeitigen Auslastung aller drei Typen von ALUs abhängig sein. Im normalen Spielbetrieb wird also diese große Leistung gar nicht nötig sein.
Ich bin sehr neugierig auf die Karte und hoffe die passt noch in mein Gehäuse.
Die 45° Drehung am Stromstecker finde ich sogar sinnvoll, da ich bei meinen beiden PCs jeweils eher Probleme mit breiten Karten, statt mit langen oder dicken Karten habe. Der gedrehte Stecker hilft, dass nicht noch der Stecker on top kommt, wenn es um die Karten Breite geht.
Allgemein sehe ich hier definitiv eine gute Entwicklung. Hoffentlich sind die großen Lüfter leise und gut geregelt.
 
  • Gefällt mir
Reaktionen: Darkscream
Also habe ich das richtig verstanden dass man einen Adapter braucht um zwei 8-Pin Stecker vom Netzteil an einen 12-Pin Anschluss der Grafikkarte anzuschliessen ?
Das hiesse ja dann dass die Nvidia Karten die über zwei 12-Pin Anschlüsse verfügen ein Netzteil mit vier 8-Pin Anschlüssen voraussetzen.
Dürfte bei vielen dazu führen dass sie sich dann zusätzlich noch ein neues Netzteil holen müssen.
 
Was ich bei dem 12pin Stecker nicht verstehe. Auf dem Bild auf Seite 2 sieht man den Stecker und darin die Pins/Buchsen gut.
Die sind hauch dünn, auf keinen Fall dicker als bei den 8Pin Steckern. Wie soll das mehr Strom aushalten? Tendiere eher zu einem Custom design mit normalen Stecker. Am besten 3x 8pin.
 
  • Gefällt mir
Reaktionen: FX-Multimedia
Maxxx800 schrieb:
Wie soll das mehr Strom aushalten?

Dies wurde hier bereits ausführlich geklärt.
https://www.computerbase.de/2020-08/nvidia-ampere-geruechte-12-pin-pcie-stecker/

Zumal der Stecker alleine hier nicht entscheidend ist, sondern die Spezifikation die damals für die Stecker bestimmte Stromstärken festgelegt hat.

Nachträglich die bestehende Spezifikation zu ändern ohne gleich auch den Stecker zu verändern, würde noch zu viel größeren Problemen führen und ein kleinerer Stecker bietet sich einfach an.

Der ATX Mainboardstecker wird bald auch fällig.
https://www.heise.de/newsticker/mel...ndeln-12-Volt-kuenftig-selbst-um-4644433.html
 
Zuletzt bearbeitet:
GERmaximus schrieb:
Je nach Art der Isolierung kannst du von bis zu 260grad ausgehen.
...

Edit: 200grad sind esAnhang anzeigen 959142
Also Silikon oder Glasseide habe ich im PC noch nicht gesehen und PVC und Gummi geht tatsächlich nicht viel höher als 60°C, PUR vielleicht etwas höher.
und was Turnigy, der Chinaböller schlechthin, irgendwo draufdruckt ist für mich nichts wert. Da würde mich nicht wundern, wenn die aus 200° Fahrenheit mal eben 200° Celsius für den europäischen Markt gemacht haben.
Das da ist jedenfalls keine Silikonleitung und brauch ich nur kurz mit dem Feuerzeug druntergehen und da schmilzt die Leitung schon.
 
  • Gefällt mir
Reaktionen: 3125b
SavageSkull schrieb:
Das da ist jedenfalls keine Silikonleitung und brauch ich nur kurz mit dem Feuerzeug druntergehen und da schmilzt die Leitung schon.

Dann haben wir unterschiedlich Kabel bzw Erfahrungen gemacht. Beim Löten haben ich mir schon Stecker versaut bevor an der Isolierung auch nur irgendwas war. Das Kabel konnte ich nicht ansatzweise mehr halten, evtl teste ich das mal mit meinem Temp Sensor.

Da haben wir anscheinend völlig unterschiedliche Erfahrungen gemacht
 
Maxxx800 schrieb:
Die sind hauch dünn, auf keinen Fall dicker als bei den 8Pin Steckern. Wie soll das mehr Strom aushalten? Tendiere eher zu einem Custom design mit normalen Stecker. Am besten 3x 8pin.
Der Querschnitt der Pins ist meistens gar nicht das Problem. Viel wichtiger, wie Buchsen und Pins sich verbinden, sprich der Federkontakt besteht und wie die Adern an der Buchse gecrimpt sind. Das sind nämlich die Schwachstellen am Stecker und nicht der eigentliche Pin.
Ergänzung ()

GERmaximus schrieb:
Da haben wir anscheinend völlig unterschiedliche Erfahrungen gemacht
Ich hatte schon das Vergnügen Leitungen zu suchen, die wir in einem Industrietrockner verlegen mussten. 160°C Dauerbelastung ist eine Hausnummer für Leitungen, die selbst auch noch Abwärme durch den Strom haben.

Beim Löten immer dran denken: Ab 50°C kann man es nicht mehr festhalten und 50°C fühlt sich VERDAMMT heiß an, da hat man schon Brandmarken auf der Haut.
Mit Modellbau Steckern habe ich auch schon weniger gute Erfahrungen gemacht. Habe selbst noch 2 Lithium Akkus, die noch auf den Stecker warten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maxxx800 und GERmaximus
Zurück
Oben