Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt
Warum heißt sie dann nicht Titan?Garack schrieb:musste mal logisch denken. lies nochmal was ich geschrieben habe. ne titan ist eine 3090 ..
Kannst ja mal logisch lesen und lernen, wie Nvidia eine Titan platziert und für wen:
https://www.nvidia.com/en-us/deep-learning-ai/products/titan-rtx/
Die 3090er ist eine Gamer GPU. Keine Titan.
also ne titan mit 32 GB und ne 3090 mit 24 GB, is klar. vieleicht kommt noch ne 3095 mit 30 GB. da hat man voll die vram wahlpapa_legba schrieb:@Garack Wie schon oben erwähnt mit 32GB und mehr Shadern. Warum auch nicht über 2000€? Das ist ne Profikarte, da spielt der Preis eher eine geringe Rolle, zum zocken kauft man sich eine Titan nicht.
Aber es heißt sowieso warten. Momentan ist das ja alles nur geraten.
so_oder_so schrieb:AMD wird nichts dergleichen machen.
Die warten schööön in Ruhe die Vorstellung inkl. Specs und Preise seitens nVidia ab und können dann ihren Preis noch anpassen.
Wieso hat AMD nicht den Zugzwang wie manche ihn sehen?
Weil nVidia auf teuren Karten hockt, die kaum einer kaufen will - wohlwissend, dass beide Lager bald was bringen werden.
Auf nVidias verkümmerten VRam hat kaum einer Bock, auf die miesen Preise ebenso nicht, dazu nun der hohe Verbrauch der next-Gen.
AMD kann hier aktuell nur gewinnen - wenn nicht über die Gesamtleistung, dann immernoch mit Verbrauch und Preis. Den VRam Sieg haben sie ja sicher.
Ich nehme an, dass AMD aufgrund der neuen Konsolengeneration die Füße stillhalten muss oder will.
Und wie kommst du darauf, dass bei 80% Marktanteil keiner nvidia-Karten will - alternative Realität?
Verbrauch und VRAM etc. muss man auch erst einmal abwarten, wenn nvidia wirklich ne 3080 mit 10 GB bringt, hoffe ich, dass die Leute klug genug sind sowas liegen zu lassen.
AMD verdient in Sachen GPUs einfach nicht soviel Vertrauen wie viele in sie setzen, kann mir ehrlich gesagt nicht vorstellen, dass man mit RDNA2 nun auf einmal in die Leistungssphären von nvidia vordringt.
Sollte es doch so kommen, wäre das für den gesamten Markt wirklich positiv, aber glauben tu ich es noch nicht.
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.227
Laphonso schrieb:Weil die 2080er und Ti nach 30 Minuten ausverkauft waren als der Preorder lief?
Das ist ja wohl jetzt kein wirkliches Argument. Der Turing-Pre Order Unfug war eine reine Paper-Launch Veranstaltung um die Early-Adopter aufzuheizen mit "Verknappung". Man hatte einfach nicht mehr GPUs.
Zudem haben wohl viele vergessen, dass die ganz frühen Besteller auch gerne mal defekte Karten hatten/bekamen.
weil gamer 24 GB vram brauchen? sag mir mal wofür? wäre dochvoll am markt vorbei platziert.Laphonso schrieb:Warum heißt sie dann nicht Titan?
Kannst ja mal logisch lesen und lernen, wie Nvidia eine Titan platziert und für wen:
https://www.nvidia.com/en-us/deep-learning-ai/products/titan-rtx/
Die 3090er ist eine Gamer GPU. Keine Titan.
cookie_dent
Commander Pro
- Registriert
- März 2017
- Beiträge
- 2.955
Corpus Delicti schrieb:RTX 3080 4352 CUDA, 10 GB, 760 GB/s, 320 W, 7 nm process
RTX 2080 Ti 4352 CUDA, 11 GB, 616 GB/s, 250 W, 12 nm process
Da nun in 7nm, irgendwie nicht so dolle.
Liegt mutmaßlich an dem aufgebasenen RTX Bereich.
Ich sehe die 3080 auf dem Niveau einer 2080Ti mit weniger starken Einbrüchen bei "RTX ON".
aldaric schrieb:Alle wünschten sich effizientere Karten
Hoher Strombedarf und Effizienz schließen sich nicht gegenseitig aus, es ist die Frage was die Karten am Ende pro Watt leisten.
Ich sehe, Du hast diese Threads hier nicht so verfolgt die letzten TageGarack schrieb:weil gamer 24 GB vram brauchen? sag mir mal wofür? wäre dochvoll am markt vorbei platziert.
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.227
Beg1 schrieb:AMD verdient in Sachen GPUs einfach nicht soviel Vertrauen wie viele in sie setzen, kann mir ehrlich gesagt nicht vorstellen, dass man mit RDNA2 nun auf einmal in die Leistungssphären von nvidia vordringt.
Ist ganz einfach. Architekturvergleich von Turing vs. RDNA1 zeigte schon, dass RDNA minimal im Vorteil ist. Es war lediglich nicht lohnenswert einen Big-Navi in einem frischen 7nm Prozess zu bauen. Die Kapazitäten wurden für die CPU's benötigt.
RDNA2 ist genauso eine Weiterentwicklung wie Ampere. Wieso sollte AMD nun also leistungstechnisch auf die Architektur bezogen weit zurück fallen? Die Frage ist nur, wann baut AMD den großen Chip.
aldaric schrieb:Das ist ja wohl jetzt kein wirkliches Argument. Der Turing-Pre Order Unfug war eine reine Paper-Launch Veranstaltung um die Early-Adopter aufzuheizen mit "Verknappung". Man hatte einfach nicht mehr GPUs.
Zudem haben wohl viele vergessen, dass die ganz frühen Besteller auch gerne mal defekte Karten hatten/bekamen.
Ging auch in der Pointe um das, was hier beklagt wird: Ohne Konkurrenz haben wir das, was Nvidia uns anbietet, zu den Preisen.
WO ist die Konkurrenz?
Siehe oben, AMD can't hide forever. Macht keinen Sinn, Nvidia das Feld zu überlassen bei den Top End Karten.
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.227
Laphonso schrieb:Siehe oben, AMD can't hide forever. Macht keinen Sinn, Nvidia das Feld zu überlassen bei den Top End Karten.
Werden sie mit Sicherheit auch nicht tun. Allerdings würde ich an ihrer Stelle jetzt auch die Präsentation von nVidia abwarten. Dann kann man immer noch richtig reingrätschen.
Palatas
Lieutenant
- Registriert
- Feb. 2007
- Beiträge
- 670
Laphonso schrieb:https://www.hd-tecnologia.com/se-filtra-la-zotac-gaming-geforce-rtx-3090-trinity-holo/
Die 3090er Zotac sieht schon "schick" aus.
Unter dem Link spricht man auch von 20 GB VRAM 3080er als "Extreme" Edition.
Sieht interessant aus, ich hoffe das dies zutrifft, eine RTX 3080 mit 20GB für um die 1.000,- € würde ich kaufen (+15-20% mehr Leistung wie RTX 2080TI), falls die RTX 2090 tatsächlich 2.000,-€ kostet. Wenn es erstmal bei 10GB bleibt, kann ich auch noch bis BigNavi warten - die rx 5700 xt leistet gute Dienste als Übergangskarte und Anno 1800 lässt sich mit ein paar angepassten Einstellung in 4k ordentlich zocken. Mit Treiberproblemen habe ich dort auch nicht zu kämpfen
papa_legba
Lt. Commander
- Registriert
- Dez. 2016
- Beiträge
- 1.456
S
so_oder_so
Gast
Beg1 schrieb:Ich nehme an, dass AMD aufgrund der neuen Konsolengeneration die Füße stillhalten muss oder will.
Und wie kommst du darauf, dass bei 80% Marktanteil keiner nvidia-Karten will - alternative Realität?
Verbrauch und VRAM etc. muss man auch erst einmal abwarten, wenn nvidia wirklich ne 3080 mit 10 GB bringt, hoffe ich, dass die Leute klug genug sind sowas liegen zu lassen.
AMD verdient in Sachen GPUs einfach nicht soviel Vertrauen wie viele in sie setzen, kann mir ehrlich gesagt nicht vorstellen, dass man mit RDNA2 nun auf einmal in die Leistungssphären von nvidia vordringt.
Sollte es doch so kommen, wäre das für den gesamten Markt wirklich positiv, aber glauben tu ich es noch nicht.
Woher kommen die 80% Marktanteil? Wer misst / bestimmt das?
Wird das durch die Verkaufszahlen errechnet?
Was bringt mir die Aussage, dass 80% nVidia kaufen, wenn von der Gesamtmasse der Gamer nur 10% aktuell kaufen und der Rest auf seinen alten Karten sitzt, wovon genug AMD User anfallen können. Dazu wird auch noch der Gesamtmarkt betrachtet und da ist nVidia im Notebookmarkt quasi fast allein unterwegs. Jede mGPU wird bei nVidia zu diesen 80% gezählt.
Mal abgesehen davon muss man sich den Markt mal ansehen.
AMD ist im Entry und Midrange Segment sehr stark unterwegs, upper midrange oder highend haben sie nicht wirklich was. Da agiert nVidia allein mit der 2080 und 2080Ti. Die beiden highend Karten sind aber quasi eine Nische und nicht die "breite Masse".
Sagen wir mal ~90% der Leute kauft <300€ GPUs und 1-2% sind bei den 800€+ Karten dabei, der Rest irgendwo dazwischen.
Was kaufen die <300€ Gamer nun?
Entweder sie kaufen günstig AMD oder eben günstig nVidia, aber keiner von der großen Masse kauft die teuersten RTX Karten. Und mit vor monaten angeteaserten next-Gen Karten liegt die aktuelle Gen immer wie Blei im Regal, dann gibts hier und da paar Sales. Mindfactory hatte doch letztens erst wieder "Raus mit dem ganzen Krempel"-Tag in ihrem GPU Kabinet. Da gabs soviele RTX Karten mit dicken Rabatten. Das war schon krass.
Ich sags auch immer wieder - wir Foren-Jockel und Hardware Nerds sind mit solchen Karten die Nische in der Nische. Das ist kein Abbild des Marktes.
AMD hatte übrigens NIE den Anspruch in 2080Ti oder 3090 Sphären vorzudringen. Das wünschen sich einige, aber ob das was wird, ich denke nicht. Das ist nicht AMDs Baustelle. Mit Highend baut man sich keine breites Fundament auf. Das geht nur mit Entry und Midrange.
PS: Glaubst du echt, dass die Masse so clever ist die 10GB Karten zu ignorieren, wenn eben jene auch wie blöd die GTX970 Krüppel gekauft haben? NEVER!
aldaric schrieb:Ist ganz einfach. Architekturvergleich von Turing vs. RDNA1 zeigte schon, dass RDNA minimal im Vorteil ist. Es war lediglich nicht lohnenswert einen Big-Navi in einem frischen 7nm Prozess zu bauen. Die Kapazitäten wurden für die CPU's benötigt.
RDNA2 ist genauso eine Weiterentwicklung wie Ampere. Wieso sollte AMD nun also leistungstechnisch auf die Architektur bezogen weit zurück fallen? Die Frage ist nur, wann baut AMD den großen Chip.
Ich mein der CPU-Markt ist für Gamer sekundär, wenn AMD da seine Prioritäten setzt, bitte, ist auch verständlich.
Trotzdem sind die Gamer richtig heiß auf neue GPUs.
Wir werden ja sehen, ob AMD zeitnah nach dem nvidia-Event etwas zu sagen hat, ich hoffe es sehr, befürchte aber das Gegenteil und falls nvidia gute Verfügbarkeit anbieten kann, könnte RDNA2 auch einfach zu spät kommen.
Laphonso schrieb:Warum heißt sie dann nicht Titan?
Einfach geschätzt? Weil der Name "verbrannt" ist.
Titan, Titan Z, Titan X, Titan Xp, Titan V, Titan RTX und nu? Schlichtweg langweilig geworden und abgesehen von der RTX weiß doch keiner mehr welche überhaupt noch welche ist. Es war mal lustig, als man damit eine besonders teure GPU verkaufen wollte und sie namentlich von den Consumer Karten differenzieren wollte.
Axcis
Lt. Junior Grade
- Registriert
- Nov. 2014
- Beiträge
- 290
Garack schrieb:musste mal logisch denken. lies nochmal was ich geschrieben habe. ne titan ist eine 3090 ..
Ist Quatsch. Es gab früher ne GTX 690 und das war damals ne Dual GPU auf einer Platine. Weil SLI aber so gut wie Tod ist, nehmen sie das wohl einfach als Leistungsstärkste Gamer GPU.
Ich glaub auch, da kommt sicher noch ne Titan für >3K mit weit mehr Vram.
Man darf gespannt sein. Vorallem auf die RTX Kerne, denn Control lief nicht mal in WQHD gescheid mit vollem RTX. Das saugt einfach noch viel zu viel Leistung.
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 919
Warte mal ab eine Karte mit ca. 2080ti Leistung wird es geben und die nennt sich 6800(XT)aldaric schrieb:Und Colorful gehört jetzt eher zu den günstigeren Anbietern... die Asus schießt den Vogel ja total ab dann.
@Shoryuken94
Ja da haste schon recht. Aber keiner will hier eine Brechstangen-Karte im Discord. Vielen würde 2080 Ti Leistung mit deutlich weniger Stromverbrauch reichen, wirds aber halt nicht geben. Ich würde mir auch keine 350 W Karte ins Gehäuse setzen, egal wie gut die Leistung davon sein könnte.
Bezüglich dieser Karte zirkulieren momentan mindestens 2 Gerüchte durchs Net.
Ich persönlich gehe da eher etwas konservativ an die Sache ran bzw. vom erwarteten Minimum der (56 -64CU's)
also 56CU (3584) bei +10% mehr Takt als beim XBOX SoC also ca. 2GHz. (Eine IPC Steigerung wurde bereits von offizieller Seite in Aussicht gestellt daher und gereade in Anbetracht der 50% P/W sind mindestens 10% bereits so gut wie sicher es ist aber wohl von deutlich mehr auszugehen)
Beim Speicher gibt es Zwei Varianten entweder 256Bit oder 384Bit
Beim ersteren müsste man wohl auch auf GDDR6X mit 18 -20Gbps (576 -640GB/s zurück greifen um auf die ca. 616GB/s zu kommen die einer 2080ti entsprechen würde allerdings dann wohl nur mit 8GB GDDR6.
Beim zweiten würde es wohl in etwa so aussehen: 384Bit, 14Gbps = 672GB/s und 12GB GDDR6.
Die Größe des Die wird sich dabei wohl zwischen 300 und 340mm2 bewegen.
Ohne jetzt allzu sehr ins Detail zu gehen sollte eigentlich ersichtlich sein das es eine solche Karte vielleicht nicht ganz mit einer max. OC 2080ti aufnehmen könnte aber die 2080ti FE locker in den Sack stecken könnte.
2080ti FE = 68SM (4352)
1.635GHz
616GB/s
6800XT = 56CU (3584)
ca. 2GHz
672GB/s
(Bei ca. 225W analog 5700XT???)
(3584x2)/(4352x1.635)x100 = 100.7% (ohne IPC Steigerung)
Beim Preis für einen bei TSMC gefertigten 7nm (e?) 300-340mm2 Die würde ich
max. 600€ sehen.
Bei welchem Preis startete die 5700XT bei ca. 400€?
Als der Prozess noch relativ frisch war und die Yield rate noch deutlich tiefer.
Daher denke ich sind 600€ sicherlich realistisch für einen 300-340mm2 Die.
Zuletzt bearbeitet:
Grundgütiger
Lieutenant
- Registriert
- Aug. 2017
- Beiträge
- 990
McFritte schrieb:. Wenn ich mich recht entsinne wird mit etwa 2.5 Watt pro GByte gerechnet...,,
Etwa 1 bis 1,3 Watt je GB hab ich gefunden, gemessen hab ich’s nicht.
Ähnliche Themen
- Antworten
- 341
- Aufrufe
- 59.969
- Antworten
- 455
- Aufrufe
- 83.464
- Antworten
- 52
- Aufrufe
- 7.097
- Antworten
- 961
- Aufrufe
- 216.050
- Antworten
- 345
- Aufrufe
- 63.777