News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

Krautmaster schrieb:
ich hab mir jetzt mal das AMD video vom August
Sieht mir sehr nach Kinderschuhen aus während Nvidia schon ein quasi fertiges RTX Framework ready for use samt doch einiger Demos vorgestellt hat.
Wird man wohl am Montag zu sehen bekommen, sicherlich wird man eine der neuen RTX 2080 oder 2080Ti mit einem entsprechenden Game vorführen [vermutlich Battlefield 5 oder Shadow of Tomb Raider], wo Raytracing in Aktion gezeigt wird, da sind wir doch mal gespannt!
 
Ich finde Zotac erstaunlich. Einerseits macht es ihn "wütend und es ist ärgerlich" das nVidia nicht mehr Speicher auf die GPU pflanzt. Andererseits würde er es bei genügend Mehrleistung mit einem Kauf belohnen. :freak:

Was soll man zu solch gut erzogenen Kunden noch sagen?

Gleichzeitig erzählt er uns hier das die Aussagen von anderen hier alles nur "AMD Verschwörungstheorien" sind, dabei scheint er jedoch den Markt seit 10 Jahren verpennt zu haben. Man bedenke nur eine R9 290, oder die 5000er / 6000er Reihe, die nVidia in fast allen Klassen überlegen war, die Leute aber trotzdem wie irre in die Läden gestürmt sind und nVidia für ihr Marketing-Geblubber noch belohnt haben.

Aber in jedem zweiten GPU Thread kommen solche Leute dann und erzählen irgendetwas von "nVidia ist ja Konkurrenzlos". :rolleyes:
 
  • Gefällt mir
Reaktionen: v_ossi, russianinvasion, Arcturus128 und 5 andere
Frostbit schrieb:
Morgen ist es endlich soweit :D mal schauen ob die neuen RTX etwas taugen ansonsten warte ich dann mal auf den Abverkauf der 1000er Karten. Wie schauts bei euch aus?

Ja. Noch einmal schlafen, dann kann man die 2080TI für 850 Euro vorbestellen. :D

Ich weiß, ich weiß.... :(
 
  • Gefällt mir
Reaktionen: cryoman
Aldaric87 schrieb:
...und erzählen irgendetwas von "nVidia ist ja Konkurrenzlos". :rolleyes:
Welche Grafikkarte von AMD würdest du empfehlen, wenn man AAA-Titel in UHD auf hoch mit 60fps spielen möchte?

Ich würde ja gerne AMD auch bei den GPU unterstützen, aber da mein UHD-Monitor kein Freesync kann, fehlt mir leider die Alternative. Und noch länger warte ich nicht.
 
@HerrRossi

Ist nicht besonders schwer. Grundsätzlich gibt es dafür keine GPU am Markt, lediglich wenn man Regler bedienen kann. Und das dies mit einer Vega 64 machbar ist, sollte auch jedem klar sein. Man sieht ja zu genüge in den Benchmarks das der Abstand zwischen einer 1080 Ti und Vega 64 bei UHD oft nichtmal vorhanden ist.

Bei solch einer Frage muss man sich aber mal selbst hinterfragen. Warum setzt man heutzutage auf UHD? Keiner der beiden Hersteller liefert dafür durchgängig genügend Leistung. Damit bist du bei den oberen 0,5%.

Edith:

Ja da hat man aber dann eher einen Fehlkauf beim Monitor begangen, als das es ein Fehler von AMD / oder nVidia ist. UHD macht bei den momentan Leistungsmöglichkeiten der GPU's ohne Sync-Technologie wenig Sinn. Natürlich kann man die Einstellungen anpassen um vll. annähernd die 60 FPS zu halten, aber UHD ist halt auch noch nicht Mainstream tauglich. FHD hat sich ja grade erst vor wenigen Jahren zum "Standard" entwickelt. Und bevor UHD wirklich massentauglich ist, wird erstmal WQHD sich durchsetzen. Dort könnte man bei beiden Herstellern ohne Probleme glücklich werden.
 
  • Gefällt mir
Reaktionen: kidlon und Cpt.Willard
Aldaric87 schrieb:
Man bedenke nur eine R9 290, oder die 5000er / 6000er Reihe, die nVidia in fast allen Klassen überlegen war, die Leute aber trotzdem wie irre in die Läden gestürmt sind und nVidia für ihr Marketing-Geblubber noch belohnt haben.

naja. Ganz so einfach ist das nicht, AMDs 5XXX und 6XXX hatte den Vorteil den Nvidias Gaming GPU heute haben. Kein bzw weniger Computing Ballast an Bord.

Danke 4 / 5D Shader waren die Designs damals sehr kompakt. AMD konnte deutlich geringere Preise abrufen und Nvidia hat vergleichsweise schwer-gewichtige Chips aus dem Tesla Markt in die Desktop GPU gepackt.

Deswegen war das dann auch die "Thermi" Generation die viel gesoffen hat weil sie eben auch entsprechend stark war. Selbst im Gaming lang sie deutlich vorn, aber eben auch viel (für uns unnützes) Computing Zeug an Bord.

Vergleich mal AMDs erste GCN Karte die HD7970 mit ihrem Vorgänger, besser noch der HD5870. Da hat man eben dieses Defizit im Computing ausgebügelt und das Ergebnis war ein regelrechter Monster Chip vergleichen mit dem Vorgänger. Dank dem Shrink fiel das nicht so sehr auf, aber Transistor Zahl zu Gaming Performance war ein massiver Schritt zurück.

Seither schleppt AMD die Computing Ballast mit sich rum da man anders als Nvidia keine 2 Serien fahren kann. Finanziell.
 
Zuletzt bearbeitet:
@Aldaric87 Ich brauche den Platz auf dem Desktop (Entwicklung) und in den Spielen sieht es halt blöd aus, wenn man die Auflösung reduziert. Regler kann ich bedienen, ich brauch kein Ultra oder Very High, aber High sollte halt doch drin sein. Sicher hängt es immer auch vom Spiel ab, GTA5 und Witcher3 sollen halt schon schick aussehen und da ist die Vega leider zu weit zurück.
 
Krautmaster schrieb:
naja. Ganz so einfach ist das nicht, AMDs 5XXX und 6XXX hatte den Vorteil den Nvidias Gaming GPU heute haben. Kein bzw weniger Computing Ballast an Bord.

Darum geht es nicht ? Es geht darum das diese Serien überlegen waren und trotzdem noch mehr zu nVidia gegriffen haben. Das ist der springende Punkt. Warum sie besser waren interessiert doch erstmal nicht? Wenn ich als Privatanwender Compute-Leistung brauche, greife ich ja heutzutage auch nicht zu einer nVidia Karte.
 
Also ich hatte damals eine 4870 und danach eine 7870 ;)
 
naja, zu Zeiten der HD5870 hat sich AMD schon an den Anteil von Nvidia angenähert.

2018-08-19 21_03_43-Window.png


Die HD69XX war dann wiederum sehr schwach, die Karten konnten sich kaum von der 58XX absetzen. CB sprach sogar im Review von einer Enttäuschung (zurecht). Dennoch waren sie P/L noch ganz okay, aber Nvidia war fixer.

Die eigentliche Killer Serie war die HD 58XX. Und da machte AMD Boden gut. Fast ausgeglichen war es da ne zeitlang. Davor hat natürlich die 8800GTX die Sache ziemlich pro Nvidia verschoben.

Edit: Andere Quellen sahen sogar AMD vor Nvidia zu der Zeit.
https://www.pcworld.com/article/323...md-ship-a-core-chip-with-radeon-graphics.html
https://www.jonpeddie.com/press-rel...ktop-discrete-gpu-shipments-increased-5.3-fr/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cryoman
@Krautmaster:

sieh mal genauer hin.

Als die 58er released wurden, hatte AMD 43% Marktanteil. Im Anschluss daran SANK dieser aber auf ~34%...

Das lag wohl am ach so "guten" Thermi. Der übrigens ja erst Q1/2010 kam. Da hatte nVidia bereits fast 65%...weil die Brillenträger lieber immer noch alte GTX 2xx in die Rechner gesteckt haben als HD 4k oder HD5k. Weil die 8800 Ultra ja immer noch "prägend" bei den Fanboys war und deswegen => nVidia.
Nicht zuletzt wurde damals auch sehr sehr sehr oft das Treibermärchen (nVidia Treiber sind besser bla) aufgebauscht - bis dann die Vista BSOD-Studie kam und das Gegenteil belegte.

Wenn also die HD 5k Serie kam als AMD 43% Anteil hatte, warum SANK dieser dann im Anschluss an den Release auf 34%....?

Hmmmm.....Rätsel über Rätsel.
 
vielleicht auch einfach weil die Datenerhebung Grütze ist ;)

Ich hatte zu der Zeit jedenfalls auch zwei rote Karten drin, erst ne HD4850 dann ne HD6970 2GB.

Vielleicht nimmt das Diagramm auch nicht das Kalenderjahr sondern das Geschäftsjahr, kp. Jedenfalls geb ich dir recht dass die Werte unlogisch sind, also dass mit Release HD5870 der Anteil einbrechen soll macht kein Sinn.
Ergänzung ()

siehe auch
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1304522864

So macht das schon mehr Sinn, denn Q3/4 ist die HD5XXX erschienen. Ich meine die HD5770 schon davor wenn ich mich recht erinnere.
2018-08-19 21_36_26-Window.png


Edit: Okay das eine is wohl gesamter GPU Share, das andere Discrete only. Dennoch passen die Werte bei ersten Diagramm nicht bzw geben wenig Sinn. Oder wieso steigen AMDs Anteile dann 3 Quartale ohne Neuvorstellung plötzlich auf 44,5%?

naja, genug OT. Erkenne jedenfalls nicht dass damals jeder zur "Thermi" gegriffen haben soll. Da dürfte der OEM Markt nen weit größeren Einfluss haben auch wenn 2 von 3 Gamern ggf damals ne AMD Karte gekauft haben.
Ergänzung ()

hehe okay das hat mich jetzt doch noch etwas interessiert. Ich weiß nicht was für Daten das laaaangzeit Diagramm als Basis hat aber ich nehme an JPR.

Hier ein interessanter Link dazu.
https://www.planet3dnow.de/vbulleti...arkt-Q2-2010?p=4277483&viewfull=1#post4277483

Hatte mich da schon öfters über die extrem schwankenden Werte zu der Zeit gewundert, gerade in besagtem Zeitraum.
Hier das komplette Bild
https://static.seekingalpha.com/uploads/2016/2/26/1006811-1456496348544623_origin.png

Alle dieser Bilder scheinen auf dieselben Zahlen zu setzen. Komischerweise passt nur der Wert von Q2 2010 55 / 44,5% in etwa zu den JPR Zahlen
2018-08-19 22_01_29-Window.png


Wieso sollte hier AMD um 10 Punkte abstürzen und sich dann direkt wieder erholen?

Bei JPR sehen die Zahlen so aus:

2018-08-19 21_56_08-Window.png


Was fällt auf? Q3 08, Q1 09, Q4 09 und Q2 10 (gelb) passen wirklich recht gut auf die werte, kein % daneben.
Aber was zur Hölle soll das bei dem All Over Diagramm bei Q3 09 sein? 43.8%? 10 zuviel eingetippt? ^^

Naja wie auch immer. Das JPR Diagramm und deren Werte geben deutlich mehr Sinn. Ich behaupte dass die HD58XX Serie gerade bei den Gamern sehr sehr beliebt war.

Wenn man aber schaut was zb die Intel iGPU für nen Anteil haben muss einem doch schnell klar sein dass nicht unser Forum hier den Marktanteil bestimmt sondern das was bei Saturn / Media Markt / Aldi übern Tisch geht. Da kann er hier gern 2/3 AMD sein, in Summe kann Nvidia dennoch mehr Anteil haben einfach weil das OEM Geschäft ggf mehr brummt.

Hier wird oft so getan als wären nur Deppen unterwegs die ihre Lieblingsmarke kaufen. Das mag auf Einzelfälle zutreffen, denke aber die meisten kaufen eher das was aktuell halt zu Preis X das beste an Leistung (Performance und auch andere Werte) bringt. Ganz nüchtern.
 
Zuletzt bearbeitet:
HerrRossi schrieb:
Das Problem ist halt Nvidias Marktdurchdringung, wenn 75% und mehr der "ernsthaften" Gamer eine Nvidia-Karte im Rechner haben, dann ist es auch klar, dass die Spiele auf diese Hardware hin optimiert werden.
Es sind aber gar keine 75%? Vielleicht kommt nVidia genau deshalb mit was neuem. Zuletzt ist nV Absatz zurückgegangen (letzten 3 Quartale). Im gesamten GPU Geschäft von 19,3% auf 18,4% und AMDs von 13,1% auf 15,8% angestiegen.

Trotz Miningboom ist der gesamte Markt eingebrochen, AMD hat 5% weniger abgesetzt, Nvidia 10% und Intel 12%.
 
Zuletzt bearbeitet von einem Moderator:
StefVR schrieb:
Stellt euch mal ne Fotokamera damit vor...
ISO100000 : 0 rauschen dank tensor core und deep learning
Da wäre es wohl erheblich sinnvoller einen vernünftigen Bildsensor zu verbauen mit dem das Rauschen erst garnicht auftritt.
 
  • Gefällt mir
Reaktionen: Colindo
https://www.jonpeddie.com/press-rel...sed-in-q417-from-last-quarter-amd-gained-mark

2/3 Nvidia, 1/3 AMD.

2018-08-19 23_26_05-Window.png

wohl mit die neuesten Daten.

Sind auch die die THG nennt
https://www.tomshardware.com/news/amd-cpu-gpu-market-share,36592.html

Edit. Das ist natürlich insgesamt. Wenn man Gaming GPU anschaut müsste man wohl eher gen Stream schauen. Bei dem All over sind sicher auch viele Mining Systeme bei.

Edit: auch Steam zeigt eine erholung seit der RX Vega und RX 400 Serie
2018-08-19 23_32_54-Window.png

https://store.steampowered.com/hwsurvey?l=german

Nvidia dominiert aber deutlich.
 
Zuletzt bearbeitet:
Leli196 schrieb:
Hast du dafür auch eine Quelle?

ja:

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfrage-1227705/

hier kommt amd etwa auf <20%

https://developer.oculus.com/hardware-report/pc/

hier auf 7,5%

und steam:

steam amd.jpg


tatsächlich hat amd in den daten von steam seit anfang 2017 ~10% marktanteile verloren.

der niedrige anteil der brot und butter gpu polaris (10+20) ist geradezu haarsträubend. polaris und gtx 1060 sind nahezu gleich gut - dank freesync und dem sonst niedrigeren preis ist polaris für die mittelklasse eigentlich der bessere kauf - außer man spielt ausschließlich nvidia spiele oder will strom sparen und schält beim zocken grundsätzlich das licht aus. hier sollten nicht ~14 gtx 1060 auf eine polaris karte kommen. das ist verheerend.

wir haben hier große schwankungen drin - als deutsche enthusiastenplattform (deutsche sind sehr pro amd) liefert pcgh hier das beste ergebnis.

oculus rift zeigt das mit abstand alarmierendste ergebnis.

und steam liegt grob in der mitte.

ich sehe nicht, wo hier die >30% von JPR als realistisch anzusehen sind, wenn es darum geht, festzustellen, wie viele amd/nvidia karten zum spielen verwendet werden. das sind die wichtigen zahlen. wieviele karten amd insgesamt verkauft hat, interessiert nur am rande fürs forschungsbudget und die aktionäre.

@Krautmaster

du hast es ja selbst schon erwähnt - aber nochmal ausführlich, damit hier nicht ständig JPR herausgekramt wird, wenns um die dominanz von nvidia geht. JPR lieferte noch gute zahlen, als gpus zu 95% zum spielen eingesetzt wurden - in zeiten von minern sind die zahlen für unsere zwecke (spiele-branche) unbrauchbar.

JPR erfasst das gesamte volumen an gpus, die verkauft wurden - jpr erfasst NICHT wer welche gpus für was benutzt. amd hat riesige volumen an gpus verkauft - aber an miner. für uns als gamer und für spieleentwickler sind das tote karten. die sind nie passiert. die existieren garnicht, weil die nicht fürs gaming eingesetzt werden.

wenn ein entwicklerstudio eine studie macht, wieviele radeons und geforce karten fürs gaming genutzt werden, um herauszufinden, ob es sich lohnt für radeon zu optimieren, wollen die nicht wissen, wieviel vom gesamtvolumen radeon waren - sondern wieviele radeonkarten tatsächlich aktiv zum spielen eingesetzt werden. und das sind nicht viele - das sind sogar verdammt wenige.

so etwa wie das oculus rift macht - mit 7,5% aller user, die eine radeon nutzen - und 92,5% aller user, die eine geforce nutzen. hier braucht man kein mathegenie mit schwerpunkt statistik sein, um zu wissen, dass oculus den support für radeon auf ein minimum zurückfahren wird - zumindest, wenn sie das selbst bezahlen müssen.

die zahlen von JPR sind brandgefährlich, weil da viele leute einem trugschluss aufsitzen, wenn sie die 30% von amd sehen - aber da sind haufenweise mining-karten drin - fast ausschließlich mining karten. und es gibt sicherlich noch große volumina an karten, die "schwarz" an miner gegangen sind.

JPR könnte amd 90% marktanteile bescheinigen - solange diese marktanteile ausschließlich über verkäufe an miner zustande kommen, sind die vollkommen irrelevant.

ja - amd hat die lager leer - aber für jeden miner, der einem gamer eine radeon weggekauft hat, ist es ein nvidia kunde mehr.

für jede privat verkaufte radeon (miner) ist es ein nvidia kunde (gaming) mehr.

ich bestreite nicht, dass amd viele karten verkauft hat - aber in den "falschen" markt. nvidia hat später auch viele miner bedient (und sich vielleicht sogar etwas übernommen) aber bis dahin waren amd gpus schon ein halbes jahr vergriffen.
 
Zuletzt bearbeitet:
inge70 schrieb:
denke nicht, dass TPU= TMU ist, weil TMU= Texture Mapping Unit (hatte meinen Post bereits geändert, weil geirrt).

TMU's sind auf 1080ti und 2080ti gleich=224.

War bei

etwas zu fix mit der Beantwortung.

Möglich, dass er die TensorCores (sind bei der Quatro enthalten)meinte, aber sowas hat eine 1080ti nicht m.M.n. .

Wir werden ja ab morgen sehen, was die neuen Dinger alles haben.
Ahja, sorry für die Verwirrung! Natürlich meinte ich Tensor Cores. Ich dachte NVIDIA hat die Dinger am Anfang mal TPUs genannt (Tensor Processing Units), aber kann sein dass nur die Dinger von Google so heissen. Bei NVIDIA heissen die zumindest heutzutage korrekt Tensor Cores, genau. Die sind auch auf der Titan X drauf, nicht nur auf Quadros. Darum hätte ich jetzt erwartet, dass die dann auch auf 2080(Ti)'s standardmässig drauf sein könnten. Aber wenn nicht, scheint es wohl so als würde NVIDIA die bewusst nicht auf Consumer Modelle drauf bauen - macht ja bestimmt auch Sinn, Gamer brauchen die nicht.
Ergänzung ()

Ok, die Sache mit den Tensor Cores ist wohl etwas komplizierter. Scheint so als könnte die 2080(Ti) durchaus 576 oder 384 Tensor Cores drauf haben.
Scheinbar ist NVIDIA auch sowas à la DLAA (Deep Learning Anti-Aliasing) am entwickeln, da könnten dann die Tensor Cores die Inferenz übernehmen.
 
  • Gefällt mir
Reaktionen: inge70
Iscaran schrieb:
@Krautmaster:
Da hatte nVidia bereits fast 65%...weil die Brillenträger lieber immer noch alte GTX 2xx in die Rechner gesteckt haben als HD 4k oder HD5k. Weil die 8800 Ultra ja immer noch "prägend" bei den Fanboys war und deswegen => nVidia.
Nicht zuletzt wurde damals auch sehr sehr sehr oft das Treibermärchen (nVidia Treiber sind besser bla) aufgebauscht - bis dann die Vista BSOD-Studie kam und das Gegenteil belegte.

Aber genau dieses "eingebildete" Treiberproblem hat mir immer den Sommer verhagelt. Eine der besten Karten die ich hatte war eine 9800Pro. Zu der Zeit hatte ich noch diverse Spiele die auf OpenGL liefen und damit wurden die Ati-Treiber nicht warm. Auf LAN's konnte ich den GeForce4-Besitzern nur hinterherschauen.
Vor einigen Jahren habe ich mal einen Versuch mit einer 290X gewagt. War wieder eine tolle Hardware, aber die Software fand ich gruselig (müsste Catalyst gewesen sein). Es wurde irgendwie viel Zeugs installiert und ich hatte nie das Gefühl, Herr der Lage zu sein (alleine schon .Net für einen Treiber, brrrrr). Dass nVidia mit Müll wie Experience eigentlich nicht besser war/ist, habe ich tatsächlich ausgeblendet bzw. ist mir erst später aufgefallen.

So wie mir ist es bestimmt einigen ergangen. Ob wir deswegen jetzt blind und Fanboys sind? Vielleicht. Aber genau wie man jahrelang nur Intel-CPUs verbaut hat, weil man alles von der Stange kaufen konnte und es lief, hole ich mir in der Regel bei vergleichbarer Leistung eine grüne Grafikkarte. Nicht weil ich auf nVidia stehe, sondern weil ich in den letzten 20 Jahren mit ebenso vielen Grafikkarten die besseren Erfahrungen gemacht habe.
 
  • Gefällt mir
Reaktionen: cryoman
Zurück
Oben