Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet
Nun ja, 75% Mehrleistung gegenueber einer RTX2080Ti (trotz GA-102 Vollausbau bei einer RTX3090 gegenueber der RTX2080Ti Vorgaengerkarte) halte ich schon fuer ziemlich gewagt,
Ja, aber 75% ohne Nodenshrink/bei nur 8nm (im Prinzip verbesserter 10nm Fertigung), damit wuerde man dann wohl auch die Pascal Architektur uebertreffen und i.d.R. macht sich der Vollausbau beim nVidia 102er Grosschip dann doch nicht so stark mehr bemerkbar gegenueber der abspeckten (bei nVidia ueberlicherweise 80erTi) Variante.
Nun, ich bleibe da etwas skeptisch, lasse mich aber gerne positiv ueberraschen (auch wenn wohl keine GA102 GPU fuer mich in Frage kommen duerfte), zumal man einen aehnlichen Leistungszuwachs ja dann auch fuer die anderen Ampere Chips im Vergleich zum Vorgaenger erwarten koennte (bspw. eine RTX 3070Ti dann wohl eine RTX 2080Ti in Sachen Leistung und vermutlich auch noch in Sachen Effizienz leicht uebertreffen duerfte bei deutlich kleinerem Chip, vom gemunkelten Speicher ganz zu schweigen).
Das klingt eigentlich zu gut um wahr zu sein, auch wenn die Preise noch nicht feststehen .
Das ist doch wie bei allem keine Gesamtleistung, sondern wieder nur in Teildisziplinen. Wenn sie FP auf Kosten von Int erhöhen, dann kann nicht beides so stark steigen.
Primär ging es anscheinend wirklich darum, die RT-Leistung zu steigern. Wie der Rasterizer drauf reagiert, steht noch in den Sternen. Und so ganz ohne negative Effekte ist das auch nicht gegangen. (Leistungsaufnahme)
Ich hab erst vor kurzem einen Artikel aus dem HPC Bereich gelesen, bei dem davon gesprochen wurde, daß zukünftige Leistungssteigerungen generell auch mit höhere Leistungsaufnahme einher gehen werden. Weshalb man wohl von 250W Basisaufnahme, auf mindestens 400 gehen wird. Die Effizienzzunahme durch neue Prozesse ist einfach nicht mehr so hoch, wie es früher war. Auch wenn das außerhalb vom HPC-Bereich sicherlich niemand gern wahrhaben wird. Durch rapide steigende Waferkosten ist es für die meisten Hersteller sowieso wichtiger, die Packdichte zu steigern.
Jedes gute 550-650W Netzteil hat 4x8Pin verstehe also das Problem nicht. Die meisten die vorher auch ne High End Karte hatten werden wohl kaum ein 450W Netzteil genutzt haben.
Mein Netzteil habe ich mir allerdings erst vor einem Jahr neu gekauft (be quiet! Dark Power Pro 11, 850W) und da werde ich mir sicherlich nicht schon wieder ein neues Netzteil kaufen, nur weil ich entsprechende Kabel nicht habe, bzw. diese im Lieferumfang meines Netzteils nicht vorhanden sind. Dieser Adapter kostet unter 5 Euro. Einen Versuch wäre es also wert.
Warum ist es denn keine gute Idee? Hast du damit bereits schon Erfahrung gemacht? Ich habe bisher nur ein Adapterkabel für CPU-Strom, das die 2x4 zu 1x8 zusammen fässt. Das funktioniert prima. Allerdings benötige ich das sowieso nur als Verlängerung, da sonst das Stromkabel in meinem Gehäuse zu kurz ist.
Ich kenne mich was das mit dem Strom anbelangt nicht aus. Ist das denn so tragisch mit 1x6 zu 2x8?
Mein Netzteil schon, stimmt. Aber nicht jeder hat nativ diese Möglichkeit. Von dem her könnten sich die 5 Euro rentieren, wenn sie das gewünschte Ergebnis liefern. Den Bewertungen des Adapters nach scheint es zumindest zu funktionieren. Für manche könnte ich es mir also als Option vorstellen.
Ein 1x6 Stecker und die Kabel sind für 75W ausgelegt, ein 1x8 Stecker für 150W, was glaubst du passiert wenn du statt 75W einfach mal so 300W über die Kabel jagst?
Ein 1x6 Stecker und die Kabel sind für 75W ausgelegt, ein 1x8 Stecker für 150W, was glaubst du passiert wenn du statt 75W einfach mal so 300W über die Kabel jagst?
Nur weil es verkauft wird heißt es nicht das es sicher ist.
Brauchst ja nur mal googeln was passiert wenn man billige Netzteile mit Adaptern und High End Hardware nutzt.
Ich habe zwar nur eine 1080 Ti, die ist aber oft (bis auf Spiele mit Low Level APIs wie Red Dead Redemption 2) in etwa auf dem Level einer RTX 2070 und werde definitiv wechseln. Warum? Weil mir die 1080Ti einfach viel zu lahm ist.
Ob nun 22GB oder 24GB, macht jetzt nicht so den Unterschied wenn man von 11GB Turing kommt.
Bis die 22GB zum Flaschenhals werden gibt es schon die nächste Gen.
die sind sicher okay, aber reichen vielleicht einfach nicht mehr aus. Es macht wenig Sinn bei einem 550W PSU 4x8 Pin anzubieten bzw is sicher kein Standard, weil das allein 600W bedeuten würde.
Ergänzung ()
DriveByFM schrieb:
Ob nun 22GB oder 24GB, macht jetzt nicht so den Unterschied
Das nicht, ich frage mich nur wie man im Leak auf 24GB kommen soll? Wieso sollte der der das Foto gemacht hat 11 ICs zeigen und einen verpixeln - und wieso sollte dieser so selten dämlich angeordnet sein? facepalm