News Custom Designs: Erste Bilder zu Zotacs GeForce RTX 3090, 3080 und 3070

cypeak schrieb:
ich finde, man sollte immer wieder von neuem prüfen was einem die hersteller vorsetzen und was sie dafür verlangen - eine hersteller-vorschußlorbeeren-gläubigkeit ist da fehl am platz!
heutzutage gibt es gerade bei custom grakas viele tests in denen man sich über stärken und schwächen informieren kann.
es mag ja sein dass gewisse hardware-serien sich einen guten ruf erarbeiten, aber daraus folgt nicht automatisch dass jede hardwaregeneration dem gerecht wird...
Ganz wichtig in dem Zusammenhang - und praktisch ÜBERALL im Alltag anzuwenden:

Sei Fan eines einzelnen Produkts und nicht einer ganzen Firma :)
 
  • Gefällt mir
Reaktionen: ComputerJunge, cypeak, fox40phil und 2 andere
Jeder Ampere Thread:

-"erst mal schauen was AMD macht"
-"1300/1600/2000$ nein Danke"
-"3 Slots viel zu groß / 350W OMG"
...usw.

Warum warten wir nicht einfach noch die letzten paar Tage bis zur Vorstellung / Reviews ab, als
dass man die Threads immer wieder mit den gleichen nicht hilfreichen Phrasen zuspammt? 🤦‍♂️
 
  • Gefällt mir
Reaktionen: Grundgütiger, Munkman, rocka81 und 12 andere
Ich hoffe noch immer auf ein 16gb Modell.
10gb sind doch recht wenig für UHD und die 24Gb sind zu viel :D

Egal wie groß der Kühler ist, der wird sowieso mit einem fullcover waterblock ersetzt!
 
  • Gefällt mir
Reaktionen: v3locite
bin ich blöd oder zeigt das Bild 11 RAM-Steine aufm PCB :confused_alt:
 
GrovyGanxta schrieb:
ich war bis jetzt auch sehr hart in meinem leben am limit als ich 1379€ für eine gpu hingelegt habe..
aber um die 2000€?
da glaube ich hörts auch bei mir nun auf..
die dinger sind auch riesig..
einen gpu halter hab ich schon aber so ein großen stein werd ich mir erstmal nicht zulegen.

Moin,
Ich glaube diese Diskussion hatten wir auch immer bei den neuen iPhone-Generationen. Die Argumentation war immer die selbe und jedesmal wurden Verkaufsrekorde erzielt.
Ich finde diese Entwicklung auch bedenklich, aber das ist halt Marktwirtschaft. Wird ja niemand zum Kaufen gezwungen.

Was mich aber noch interessieren würde ist, wie man eventuelle mobile Ableger realisieren will? Bei dem Stromverbrauch bzw. dem Kühlaufwand ist das doch fast unmöglich, oder?
Allen ein schönes Wochenende 🙋‍♂️
 
Bin froh, dass die Custom-Hersteller bei einem normalen Design bleiben. Bei mir entscheidet dann die Verfügbarkeit von Wasserkühlern über das Modell. Die 8-Pin-Anschlüsse ziehe ich dem 12-Pin-Steckern alleine wegen meiner gesleevten Kabel vor.

PS828 schrieb:
Was ich sagen kann: es ist unmöglich das Geräusch der GPU vom Rest zu isolieren. Und das ist eigentlich eine gute Sache. Leise ist mein Rechner aber nicht unbedingt. ;)
Dann ist die Karte aber nicht unhörbar, sondern dein Rechner so laut, dass der Radauradiallüfter auch schon egal ist ;) Radiallüfter sind ziemlich ineffizient und ich sehe keinen Weg, eine TDP von 350W damit wegzukühlen. War bei der GTX1080 FE schon grenzwertig und die hatte nur 180W oder so.
Mcr-King schrieb:
Da diese nur 400Watt auf Dauer packen
Die packen grundsätzlich auch locker mehr, wenn du ein ordentliches Netzteil mit Kabel >=AWG18 und ohne Y-Kabelei hast. Der 12-Pin-Stecker hat ja genauso 6x 12V, nur dass die Vorgaben hier strenger sind.
Mcr-King schrieb:
Also haben wir gute 500Watt VS 600Watt ( Peak 700Watt), damit könnten die FE besser übertaktbar sein.
Wo kommen die Zahlen jetzt plötzlich her?
cypeak schrieb:
kompakte builds die garnicht oder kaum auf leistung verzichten müssen, finde ich weitaus beeindruckender als diese riesige case-builds mit einem wakü-aufwand bei dem sich einem die nackenhaare aufstellen...
Kompakt ohne externe WaKü ist halt immer kacke laut. Was daran beeindruckend ist, ne passende Graka und nen kleinen CPU-Kühler in ein kleines Case zu stecken, erschließt sich mir halt auch nicht. Das ist keine große Kunst, man muss nur vorher recherchieren.

Zumal du mit einer MoRa auch alles in ein winziges Case stecken kannst, der Radi hängt dann halt unterm Schreibtisch.
Tom_1 schrieb:
Ich hoffe noch immer auf ein 16gb Modell.
Das geht sich mit dem Interface nicht aus. Du kannst verdoppeln auf 20, aber nicht einfach so auf 16 gehen.
 
  • Gefällt mir
Reaktionen: Andybmf
Reset90 schrieb:
Zotac aus prinzip nicht. Fällen immer wieder negativ auf, da die Firma nicht mit Kritik von reviewern umgehen kann

Da steht Zotac nicht alleine da.
Ich habe jetzt meine dritte Karte von Zotac (750ti, 1050ti, 2070 Mini). Nie Probleme gehabt, Karten sind leise und sehr kompakt. Zudem gibt es bei Registrierung 5 Jahr garantie.
Man sollte aber beachten, dass Zotac meines Wissens grundsätzlich keinen Zero Fan Modus anbietet, vermutlich wegen der längeren Garantie, um so die Langlebigkeit zu gewährleisten. Für mich ist das eher ein Vorteil, wenn die karte im Idle leise ist.
 
  • Gefällt mir
Reaktionen: DJMadMax
Esenel schrieb:
Einfach das Alu weg Dremln und nen WaKü Block drauf.

Kann man machen. Aber eleganter ist es einfach eine Slot-Blende nach zu kaufen, welche nur 1 Slot an Höhe hat. 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Londo Mollari, TorgardGraufell, Dai6oro und eine weitere Person
GRiNGO73 schrieb:
Eher legt Nvidia eine Super oder Ti nach und lässt die normalen Varianten auslaufen.
Wie und womit, sollen sie das machen?
Die 3080 startet diesmal direkt auf dem Big Chip. Die 3090 nutzt auch schon große Teile davon.
Da könnens nicht mehr groß nach Oben ausweichen.
Elektrische Leistung ist auch schon ziemlich hoch.
Gut, sie könnten ja noch eine 500W Variante bringen.
Will die wirklich jmd.?
 
  • Gefällt mir
Reaktionen: Mcr-King, PS828 und Lübke82
snook schrieb:
Ist hier dann schon die HDMI Version verbaut, die Freesync aka Variable Refreshrate von Haus aus beherrscht?
Wie schön wäre es wenn der proprietäre G-Sync Mist endlich verschwinden würde..
HDMI 2.1 VRR (was nvidia dann als GSync Compatible zertifiziert) können doch bereits die Turing GPUs, wieso sollte das bei Ampere plötzlich nicht mehr sein.
 
  • Gefällt mir
Reaktionen: Affe007 und Lübke82
cypeak schrieb:
ich finde, man sollte immer wieder von neuem prüfen was einem die hersteller vorsetzen und was sie dafür verlangen [Restzitat entfernt...]
heutzutage gibt es gerade bei custom grakas viele tests in denen man sich über stärken und schwächen informieren kann. [ Restzitat entfernt...]
Das ist rein prinzipiell ja auch richtig. Nur bringen dir solche Tests rein gar nichts, wenn die Lüfter nach 7-8 Monaten oder einem Jahr anfangen zu klackern, weil vielleicht die Lager eine minderwertige Qualität haben.

Bestes Beispiel: EK-Vardar Lüfter - auch zunächst von der Presse hochgelobt. Und ja, die Lüfter sind auch (prinzipiell) nicht schlecht. Waren damals in gewisser Weise sogar konkurrenzlos, bis Noctua nachgezogen hat. Aber diese Lüfter von EK haben nach einigen Monaten Lagerschäden bekommen, und EK musste die Lüfter zurücknehmen bzw. eine Revisionsänderung vornehmen. Das müsste etwa zwei Jahre her sein.

Und deswegen sagen Testberichte in bestimmten Aspekten rein gar nichts über die langfristige Haltbarkeit der Hardware aus. Außerdem beruht meine Aussage ja auch nicht auf Sympathien zu Asus oder aus Hass auf Zotac, sondern einfach aufgrund meiner persönlichen Erfahrung die ich mit beiden Herstellern gemacht habe. Beide Hersteller habe ich gekauft und mehrmals ausprobiert.
 
Summerbreeze schrieb:
Es wird mit Sicherheit Mittel und Wege geben.
Meinst du Nvidia überlässt AMD das Feld, falls Big Navi besser einschlägt als die 3000er Serie? Ich denke nicht.
 
Erstmal warten was AMD bringt und dann warte ich auf die entsprechenden Waterblocks. Meine RTX 2070 Super hat für mich genug Leistung im Moment.
 
  • Gefällt mir
Reaktionen: Mcr-King
GRiNGO73 schrieb:
Es wird mit Sicherheit Mittel und Wege geben.
Meinst du Nvidia überlässt AMD das Feld, falls Big Navi besser einschlägt als die 3000er Serie? Ich denke nicht.
Natürlich gibt es Mittel und Wege.
Wie gesagt, 500W TDP, ;) oder eine Dual-Chip Karte, oder das fehlen einer Titan und das nachträgliche Hochstufen von 80er und 90er Karte. Zum Beispiel.
Aber sehr viel bleibt nicht mehr.
Oder solltens gar Karten mit 1 KW TDP bringen, wovon höchstens 100 Stück verkauft werden, nur um ganz oben auf dem Papier den längsten zu haben?
 
Bei Nvidia launchen die custom Karten wohl direkt, AMD hingegen launched Big Navi wie es aussieht im November und auf custom Karten kann man dann bis nächstes Jahr warten.

Das macht Nvidia seit Jahren deutlich besser.
 
  • Gefällt mir
Reaktionen: Ben81, Aduasen, Lübke82 und eine weitere Person
LinuxTux schrieb:
Ich warte erstmal, was AMD bringt ;-) Haut mich!
Das schlimme ist das man nach dem Release von AMD noch weitere 6 Monate warten muss bis sich zeigt ob die Dinger stabil laufen oder nicht.
 
  • Gefällt mir
Reaktionen: RNG_AGESA
Zensur
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: jemandanders
edenjung schrieb:
Leg Mal lieber 700€ auf die 3090 drauf.
In China werden erste customs für 2035€ gelistet.
Mit steuern ist man bei uns dann bei 2100€.
Dafür hat mein Bruder damals seinen (jetzt meinen) Golf iv gekauft.

Dann wird es vielleicht mal Zeit für "Grafikkarten-Leasing" 🙂
 
  • Gefällt mir
Reaktionen: Nefcairon, Munkman, Skjöll und eine weitere Person
SirSilent schrieb:
Das schlimme ist das man nach dem Release von AMD noch weitere 6 Monate warten muss bis sich zeigt ob die Dinger stabil laufen oder nicht.
Wieso das denn?
Entweder laufen sie, oder eben nicht.
Das sieht man in den Foren doch schon spätestens nach einem Monat. Oder im eigenen Rechner sofort.
Im übrigen bin ich ziemlich überzeugt, das sehr viel an einer stabilen Rechnerbasis liegt.
Meine XT rennt jedenfalls bisher Fehlerfrei.
Ist ja oft so: Wenn die Chips schon weniger kosten, dann muss der Rest erst recht billig sein.
Vor allem das Netzteil darf nichts kosten. ;)
 
  • Gefällt mir
Reaktionen: edenjung
Zurück
Oben