News Zotac GeForce RTX 3080 Trinity: Aus wochenlanger Wartezeit werden Stornierungen

Bin mit der TUF Gaming super zufrieden leise und kühl und bei meinen 650 Watt Netzteil bisher keine Abstürze.
 
  • Gefällt mir
Reaktionen: Falc410
Ebu85 schrieb:
dadurch das man keine Boardpartner beliefert zum Release Verkauft man seine Technik erstmal nur aus einer Hand und das wird Sapphire sein. Custom Modelle (da werden die meisten drauf warten) kommen frühstens Anfang 2021
Auch eine Unsitte, die AMD abschaffen sollte, oder zumindest die Laufzeit der Exklusivität verkürzen sollte. Natürlich will AMD Sapphire unterstützen, da es von denen nur AMD Karten gibt, aber dann lieber für den exklusiven Zeitraum auf 4 Wochen verkürzen, evtl 2 Wochen mehr Vorlauf ermöglichen und dann noch einen exklusiveren Rabatt für ein bestimmtes Kontingent an Chips und gut ist. So kann Sapphire mehr vorproduzieren & direkt absetzen und hat eine bessere Marge für ein gewisses Kontingent.
Und für uns, als Kunde springt dabei raus, dass wir nicht 2 Monate warten müssen, bis der favorisierte Hersteller am Markt ist / man die volle Auswahl hat um die für sich best geeignete Karte zu kaufen (natürlich nur wenn verfügbar)
 
  • Gefällt mir
Reaktionen: Ebu85
DocWindows schrieb:
Nein, ist sie nicht. Sie ist effizienter.

Kann ein überraschend großer Prozentsatz der Leser auf CB nicht auseinanderhalten. Es erstaunt mich immer wieder, dass in einem "Nerdforum" so grundlegende technische Termini so oft nicht korrekt verwendet werden.
 
  • Gefällt mir
Reaktionen: McFritte, Ebrithil und poly123
catch 22 schrieb:
Auch eine Unsitte, die AMD abschaffen sollte, oder zumindest die Laufzeit der Exklusivität verkürzen sollte.
Man will wohl damit auch etwas eindämmen, was die Boardpartner so vorab ausplaudern können^^

So wie der Lüfter der Referenz aussieht(ist ja auch von Sapphire) könnte er aber diesmal tatsächlich recht gut werden.
Wobei man hier natürlich auch sehen muss, dass Sapphire später davon sowohl eine Pulse als auch eine Nitro+ verkaufen möchte, da wäre es ja blöd, wenn deren Referenzlüfter schon so gut wäre, dass es sich für die beiden Karten nicht lohnt, außer eben die Referenz wird z.B. teurer als die Pulse.
 
Aphelon schrieb:
Option 1 für nVidia: Sie produzieren so lange vor und mieten dabei zusätzliche Lagerfläche an, sodass sie zum Marktstart für alle eine Karte haben. Der Marktstart verzögert sich dadurch natürlich um sagen wir mal 3-6 Monate.
Schön wär's.
Hier wird ja immer gesagt, dass die mindestens 10 Mio. Karten bräuchten um an den Start gehen zu können.
Geschätzt wird aber, dass sie nur 200.000 Karten pro Woche produzieren können. Das dauert also über 1 Jahr die 10 Millionen Karten vorzuproduzieren.
Ich weiß nicht, ob die Leute damit zufriedener gewesen wären, wenn der Verkauf der heute vorgestellten Karten erst im September 2021 begonnen hätte.

Wäre schon irgendwie lustig, wenn Nvidia uns immer nur die vorherige Generation der Karten verkaufen würde, während sie uns die Neue vorstellt.
 
  • Gefällt mir
Reaktionen: nciht und .Sentinel.
Aphelon schrieb:
Doch, Lagerhaltung ist in fast allen Branchen ein Bereich, wo enorme Kosten eingespart werden. Und wenn man es möglichst verhindern kann, wird es verhindert. Das Unternehmen (wie auch hier nVidia) es so handhaben bestätigt dies nur.

Als kleines Beispiel sei hier mal ein mittelständisches bis großes deutsches Chemieunternehmen in meiner Nähe genannt. Die Einzelkomponenten für die zu produzierenden Chemieprodukte werden so angeliefert, dass zwischen Annahme und Produktionseinsatz nie mehr als 6 Stunden vergehen. Das ist die Zeit die Zwischengelagert wird. Und wenn es keine Qualitätskontrolle der zugelieferten Komponenten bräuchte, wäre die Zwischenlagenzeit nochmal rund 50% niedriger.
Hat den Vorteil geringer Lagerflächen, hat den Nachteil dass die Anlieferung quasi auf die Minute erfolgen muss, sonst gibts Produktionsstillstand. Die Taktung ist immer so, dass sobald ein Zwischenlagerplatz frei wird (durch Abtransport in die Produktion) innerhalb der nächsten Stunde der nächste LKW dort ablädt.
 
Zuletzt bearbeitet:
@catch 22 allerdings kann man so die daten länger geheim halten. ich finde es gerade sehr fazinierend zu sehen wie die eine seite AMD schon den Tot bescheinigt, die anderen Hoffnung haben und wieder andere glauben das die AMD Karte mithält (3080/90). Und im gegensatz zu Ampere weiß keiner was kommt. Auch bei der Hot Chips Präsentation gab es nix was man nicht schon wusste die wirklichen neuerungen von RDNA2 wurden bis auf das es jetzt 4 RT Einheiten pro CU (glaube ich) gibt nicht angesprochen bzw erläutert. Und so wird das auch weiter gehen. AMD hat alle Informationen in ihren Händen und wenn sie mal lust haben dann gibts mal ein häppchen für den Markt und alle werden sich darauf stürzen.

P.s. die welche sich jetzt eine 3080 bestellen hätten sich eh nie eine AMD gekauft. man spekuliert eher auf die welche noch unentschlossen sind und abwarten.
 
  • Gefällt mir
Reaktionen: Xedos99
milliardo schrieb:
Kann ein überraschend großer Prozentsatz der Leser auf CB nicht auseinanderhalten.
Kommt aber auch auf die Nutzung an, so ist Nvidia ja auch auf die 1.9x Perf/Watt gekommen^^

Habe ich z.b. einen 144Hz Monitor, dazu ein FPS Limit auf 144 und bekomme mit meiner 2080Ti im Schnitt 130fps, dann habe ich mit der 3080 meine 144fps bei weniger Verbrauch.
 
mylight schrieb:
das heißt nen game mit gleichen settings in 60 fps verbraucht nicht weniger strom als eine 2080ti?

Das ist keine Kategorie mit der irgendjemand was anfangen kann, weil sie nicht allgemein genug gefasst ist.
Welches Game, welche Auflösung, welche Effekte, etc. etc.

Beim Abspielen von Youtube-Videos in 4k mit HDR verbraucht die 3080 13 Watt mehr als ne 2080Ti.
Ist auch so ein random Kriterium. Danach wäre die 2080Ti sparsamer als die 3080.
 
Zuletzt bearbeitet:
Bei den jetzt anziehenden RTX3080 Preisen wird die RTX3090 ja schon fast günstig :D
 
  • Gefällt mir
Reaktionen: EL-SANTO
cypeak schrieb:
ich hoffe sehr die meldungen irren sich in diesem punkt - eine navi21 mit 80 (!) shadereinheiten will auch sinnvoll gefüttert werden; da ist ein 256bit speicherinterface äußerst dürftig!
selbst mit schnellstem verfügbaren gddr6 (samsung, 18gbps) bekommt man da "gerademal" 576 gb/s bandbreite hin; das ist mittig zw. der 3070 und der 3080 mit ihren 760gb/s.

Verschiedene Architekturen skalieren unterschiedlich mit Bandbreite. Es gibt z.B. Navi 1 Tests mit runtergetaktetem speicher, der Einfluss war nicht so groß. Turing hingegen skaliert extrem mit der Bandbreite. Daher ist das nur schwierig vergleichbar. Wenn AMD hier neue Ansätze findet, dann könnten 256 Bit durchaus ausreichend sein.

Wie gesagt, eine GTX 1070Ti ist auch um welten (über 60%) schneller als eine GTX 780Ti und das trotz kleinem 256 Bit interface mit langsamen GDDR5, obwohl die 780Ti über 30% mehr Bandbreite hatte hatte an ihrem 384 Bit interface. Und das obwohl Pascal auch gut mit Speichertakt skaliert.

Also gut Möglich das ein 256 Bit GDDR Interface kein so extremer Nachteil ist, zumal es extrem die Effizienz steigert.

cypeak schrieb:
dazu wäre navi21 aka "big navi" mit einem solchen 256bit si nicht eine große lösung, sondern eher ablöse für die 5700er navis, welche bereits ein 256bit Si hatten.

Ist doch völlig wurst, welche Karte welches interface hatte. Das wechselt je nach generation eh immer wieder durch. Ist bei Nvidia ja auch nicht anders.

cypeak schrieb:
ich weiß dass viele das als unrealistisch betrachten, aber amd hatte schonmal ein 512bit interface benutzt.
hbm wäre prinzipiell auch möglich, allerdings sagen die bilder der vermeintlichen engineering sample karte nicht nach hbm aus.

Nvidia hat auch schon mal 512 Bit genutzt und seit über 10 Jahren keinen Gedanken mehr daran verschwendet. Mit GDDR6 sind die anforderungen an den Speicher auch deutlich höher, ein Platinenlayout wird dadurch deutlich komplexer und teurer. Der Chip wird größer und es benötigt viel energie. Möglich ist alles, aber aktuell deutet wenig darauf hin und es macht auch nicht so viel Sinn, da der Aufwand der in die Platinen fließt auch einfach in HBM gesteckt werden könnte, was deutlich mehr Vorteile kiefert.

Aber auch dir Bilder der geleakten ES sehen nicht nach HBM aus, sondern ganz stark nach GDDR6. Wobei eine HBM Variante nicht ausgeschlossen ist.

mad-onion schrieb:
Wer sich damit abfinden kann, erst nach allen Benchmarks des kompletten Lineups beider Hersteller (Intel kommt wohl erst 2021 in Betracht) samt Custom Designs eine Entscheidung zu treffen, der kann sich das Schauspiel völlig Bedenkenfrei, entspannt zurückgelehnt anschauen und im Nachhinein die beste Entscheidung treffen.

Japp. Sehe das ziemlich gelassen. Ob Nvidia oder AMD ist mir relativ egal. Cyberpunk ist in diese Jahr eh das einzige Spiel, wo ich eine neue GPU benötige. Und das kann ich auch später nfangen oder mit der Vega spielen. Von daher kaufe ich keine Karte, die nicht rund für mich ist. Das gesamtpaket muss stimmen und das tut es mit 10GB nicht.

catch 22 schrieb:
Richtig. Allerdings arbeitet Igor, wie übrigens die meisten anderen Bencher auch, in einem klimatisierten Raum bei (afaik) 20 bis 21°C Raumtemperatur. Von daher kann das noch "interessant" werden, wenn es in den Sommer Monaten mal wieder 30°C, oder mehr, hat.


Noch mehr sorgen mache ich mir bei Billig Customs... da könnte es ziemlich heiß werden, denn gerade bei der Speicherkühlung haben schon manche Customanbieter ziemlich geschlafen. Besonders bei der 3090 könnte das och böse werden, wenn dort noch mehr Hitze auf zwei seiten des PCBs streffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
ich habe bei "notebooksbilliger.de" bestellt, die haben mir am Telefon gesagt das es bis zu 4 Wochen dauern kann bis ich die Karte geliefert bekomme.
 
mylight schrieb:
das heißt nen game mit gleichen settings in 60 fps verbraucht nicht weniger strom als eine 2080ti? :p
idR kauft man sich ja eine neue GPU weil die alte nicht mehr genug FPS liefert, also wenn du mit der 2080Ti auf 60fps kommst, was würde dir dann eine 3080 bringen, wenn du sie dann auf 60fps begrenzt?

Sinn macht es für diejenigen, die nicht von einer 2080Ti kommen, allerdings sind die in dem Szenario dann auch eher mit einer gebrauchten 2080Ti für 4-500€ besser dran^^
 
  • Gefällt mir
Reaktionen: EL-SANTO
Taxxor schrieb:
idR kauft man sich ja eine neue GPU weil die alte nicht mehr genug FPS liefert, also wenn du mit der 2080Ti auf 60fps kommst, was würde dir dann eine 3080 bringen, wenn du sie dann auf 60fps begrenzt?

Sinn macht es für diejenigen, die nicht von einer 2080Ti kommen, allerdings sind die in dem Szenario dann auch eher mit einer gebrauchten 2080Ti für 4-500€ besser dran^^
Es ging mir darum aufzuzeigen das die 3080 stromsparender ist als die 2080Ti, wenn man das exakt gleiche Szenario eines Bench durchführt. Ich habe einige Spiele die spiele ich auch nach der 3080 weiter, das heißt bei diesen Spielen wird es für mich stromsparender. Es liegt an einem selbst, wie effizient man die Grafikkarte betreibt, wenn ich jeden Tag die krassesten Grafikblockbuster auf 100% Last spiele ist es klar das hier von stromsparender geredet werden kann, die 2080Ti wäre dabei längst abgeraucht...
 
mylight schrieb:
Es ging mir darum aufzuzeigen das die 3080 stromsparender ist als die 2080Ti, wenn man das exakt gleiche Szenario eines Bench durchführt. Ich habe einige Spiele die spiele ich auch nach der 3080 weiter, das heißt bei diesen Spielen wird es für mich stromsparender.
Wenn du die FPS limitierst, ja. Aber das tun die meisten eben nicht^^
 
Taxxor schrieb:
idR kauft man sich ja eine neue GPU weil die alte nicht mehr genug FPS liefert, also wenn du mit der 2080Ti auf 60fps kommst, was würde dir dann eine 3080 bringen, wenn du sie dann auf 60fps begrenzt?

Eine "immense Stromersparnis". Grund Nr. bei dem Kauf einer 3080. :lol:
 
Wer bei künstlich begrenzten fps versucht durch Effizienz den Umstieg von einer 2080 Ti auf eine 3080 wieder reinzuholen, wird vermutlich 2030 sein Ziel erreichen.

GPU-Tests sollten doch in der Regel praxisnah sein und nur die wenigsten kaufen sich Grafikkarten vom Kaliber einer 2080 Ti, 3080 oder gar 3090 nur um dann die fps zu begrenzen. Insgesamt ist Ampere doch ein wenig effizienter als Turing, nur bleibt mit Brechstange im Alltag nichts zählbares davon übrig.

Natürlich steht es jedem frei seine Grafikkarte zu optimieren. 270 Watt als Taget sind schon einmal ein guter Anfang. Aber auch das machen ggf. 0,5% aller Käufer.
 
  • Gefällt mir
Reaktionen: t0mic, Philanthrop, Benji21 und 3 andere
Toni_himbeere schrieb:
Sofern das Produkt gut und konkurrenzfähig ist und der Preis auf dem selben Niveau, klar warum nicht?

Aber auch AMD muss bei einem guten Produkt zu nem guten Preis erstmal die Nachfrage bedienen.
Und bei AMD scheint die Kühlerproduktion auch noch nicht mal angelaufen zu sein. Das spricht nicht dafür das wir uns in nächster Zeit in AMD Karten eingraben können.
 
noxon schrieb:
Ich weiß nicht, ob die Leute damit zufriedener gewesen wären, wenn der Verkauf der heute vorgestellten Karten erst im September 2021 begonnen hätte.
Deswegen kam ich ja auch zu dem Schluss, dass Option 2 (einfach mit dem Verkauf zu starten) für den Kunden besser ist und eben auch für nVidia selbst.

Ebu85 schrieb:
Glaube ich nicht das die AMD Karten so schnell weg sind.
Werden wir sehen. Ich sag ja auch, dass das abhängig von der Nachfrage zu dem Zeitpunkt des Releases ist. Wenn die weiterhin sehr hoch ist, also man kaum bis keine neuen nVidia Karten bekommt, oder man noch Monate warten muss, werden durchaus Leute versuchen eine AMD-Karte zu bekommen (ggf. sogar die Bestellung bei nVidia stornieren) und dann werden die AMD-Karten auch schnell allesamt weg sein. Wenn der Markt sich hingegen soweit gesättigt/erholt hat, dass bei nVidia keine großen Lieferengpässe mehr sind, wird es auch bei AMD zum Release keine großen Engpässe geben. Das wäre dann aber auch scheiße für AMD, weil sie dann eben viel zu spät dran waren.
 
  • Gefällt mir
Reaktionen: Apocalypse
Zurück
Oben