Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Wadenbeisser schrieb:
Interessant wäre noch ob der zusätzliche Speicher für die 3080 bei der TDP so viel Spielraum wegfressen würde das diese den Takt etwas geringer ansetzen muss. Der normale GDDR6 Speicher scheint ja etwas sparsamer zu sein und könnte sich deshalb weniger stark auswirken.
Wenn so ein Modul ca 3W verbraucht, dann sind das eben nochmal 30W und diese 3080 mit 20GB könnte dann auch einfach die 350W TDP bekommen.
Der Sprung von 12 auf 24GB bei 2.5W Modulen wäre da ebenfalls genau bei 30W.

Ich weiß aber nicht wie es sich mit dem Verbrauch hier verhält, verbrauchen die Module mehr, je voller sie sind? Und wenn ja, werden sie nacheinander belegt oder alle gleichmäßig?

Also wenn ich 24GB an Speicher auf der Karte habe und davon nur 10GB belegt sind, habe ich dann trotzdem 2.5W * 24 an konstantem Verbrauch durch den VRAM?
 
Beteigeuze. schrieb:
und ich würde mit dir um 1000€ wetten dass du innerhalb der nächsten 1-2 jahre ein problem bekommen wirst

Definiere Probleme genau. Ich bin bereit 1000€ zu verdienen....

Beteigeuze. schrieb:
anfangs wird nur ganz wenige spiele geben die die 10gb sprengen aber es wird sie geben und es werden immer mehr werden

Sicher gibt es die früher oder später.

Beteigeuze. schrieb:
zwischen keinerlei probleme bei 10gb vram und <8Gb völlig obsolut gibt es also nichts?

Klar, aber du redest von ominösen Problemen. Wenn eine 10GB Karte Probleme hat, dann wird beispielsweise eine 6GB Karte schon ganz weit abgeschlagen sein.

Beteigeuze. schrieb:
du weißt sicher dass die xbox series x alleine 13,5gb für spiele reserviert hat

Ja Unified Speicher, der nicht nur rein als Vram genutzt wird. In Konsolen mit 4K Target Auflösung. Bei der PS4 stehen 5GB (bei der Pro 5,5GB) Speicher für Spiele zur Verfügung.

Erste 6GB Karten in der Masse kamen erst über 1,5 Jahre später, noch lange Jahre waren 4 GB in der breiten masse standard und auch 2GB Karten breit vertreten.

Da sind 10GB Vram im vergleich zu den 13,5GB unified Speicher der Series X nicht so schlecht aufgestellt.

Beteigeuze. schrieb:
wieso ist schon wieder alles vergessen wie es beim launch der ps4/und xbox one x aussah

Hat doch keiner. Nur waren dort auch 1-2 Jahre nach Release 3GB in so ziemlich allen Spielen ausreichend... und mit Einschränkungen noch viel länger nutzbar.

Wie gesagt. ich gebe dir recht, dass 10GB bei eine langjährigen Nutzung nicht sonderlich viel sind, wenn man keine Kompromisse eingehen möchte. In den nächsten 2 Jahren aber kein großes Problem.

Neben den Titan Modellen und professionellen Karten gibts mit der 1080Ti, 2080Ti und Radeon VII bislang überhaupt nur 3 High End Modelle mit mehr speicher, wovon eine der drei genannten quasi Null Verbreitung hat und die beiden anderen 10% mehr speicher bieten, der langsamer ist...

Wadenbeisser schrieb:
Interessant wäre noch ob der zusätzliche Speicher für die 3080 bei der TDP so viel Spielraum wegfressen würde das diese den Takt etwas geringer ansetzen muss. Der normale GDDR6 Speicher scheint ja etwas sparsamer zu sein und könnte sich deshalb weniger stark auswirken.

Ist doch alles über das Powermanagement regelbar. Wenn Man den Takt beibehalten möchte, dann lässt man etwas mehr Boardpower zu. Da wir nichts über das Ampere Taktverhalten bisher wissen, kann man das nur schwer einschätzen. Wir wissen ja nicht mal, ob es wirklich eine 20GB geben wird. Erste Aufschlüsse wird die 3090 geben, de mit 30 Watt mehr deutlich mehr Shader und 14GB mehr zu versorgen hat, aber mit ähnlichen Taktraten angegeben wird.
 
  • Gefällt mir
Reaktionen: Laphonso, KlaraElfer und xexex
@Taxxor

Da gibt es schon noch einen gewissen Unterschied denn die RTX 3080 Soll auf GDDR6X setzen und bei der Radeon ist normaler GDDR6 Speicher im Gespräch.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
Da gibt es schon noch einen gewissen Unterschied denn die RTX 3080 Soll auf GDDR6X setzen und bei der Radeon ist normaler GDDR6 Speicher im Gespräch.
Weiß ich doch, deshalb hab ich ja bei der 3080 mit 3W pro GB und bei der Radeon mit 2.5W pro GB gerechnet(aufgrund der -15% power per transfered bit in Kombination mit der erhöhten Bandbreite), die Radeon würde aber eben in der Konstellation auch 12GB dazu bekommen und die 3080 nur 10, was das ganze TDP mäßig wieder ausgleicht.

Aber wie auch gesagt, wenn die Module den Verbrauch eben nur pro transferiertem bit haben, dann wäre es ja im Endeffekt egal, wenn beide Karten z.B. nur mit 15GB ausgelastet werden, ob die Radeon jetzt noch weitere ungenutzte 7GB hat und die 3080 5, würde dann wohl nicht so viel am Verbrauch ändern.
Somit würde bei gleicher Speicherbelegung wohl der Speicher der 3080 insgesamt mehr verbrauchen.
 
Shoryuken94 schrieb:
Ist doch alles über das Powermanagement regelbar. Wenn Man den Takt beibehalten möchte, dann lässt man etwas mehr Boardpower zu. Da wir nichts über das Ampere Taktverhalten bisher wissen, kann man das nur schwer einschätzen. Wir wissen ja nicht mal, ob es wirklich eine 20GB geben wird. Erste Aufschlüsse wird die 3090 geben, de mit 30 Watt mehr deutlich mehr Shader und 14GB mehr zu versorgen hat, aber mit ähnlichen Taktraten angegeben wird.
Das wäre dann aber ganz schlecht für die Effizienz der Karte denn mit 30W mehr Boardpower sitzt man bereits auf dem Niveau der 3090er, welche wiederum keine Rückschlüsse aufdas Powermanagement zuläßt da keine Variante mit 12 GB bekannt ist.
Da dürfte der Vergleich der beiden Ausbauvarianten der 3080 durchaus interessant sein.

@Taxxor

Ah sorum war das gemeint.
Vielleicht gibt es bei der Radeon ja eine 12 GB Variante mit den diskutierten 275W und eine 24 GB Variante mit 300W TDP? Das könnte dann recht Takt neutral sein.
 
Teralios schrieb:
Ich hoffe aktuell - naiverweise als FOSS-Verfechter - dass NVIDIA ein Einsehen hat und sowohl AMD, NIVIDIA als auch Microsoft hier an einem generellem DLSS arbeiten, der von den Spieleentwicklern Hersteller unabhängig eingepflegt wird.
Von nVidia?? Na, da wünsche ich mal extrem viel Glück! Das glich erst wenn ichsehe.
Die bisherige Historie spricht da ja absolut dagegen. Bisher haben sich die Grünen immer nur dann bewegt, wenn der Druck der Masse viel zu Groß wurde. Siehe G-Synch. Und selbst dann nur unter dem Hinweis, dass sie ja trotzdem vieeel besser sind.
nVidia baut gerne goldene Käfige, und sie werden das auch mit DLSS versuchen.
 
Wadenbeisser schrieb:
Vielleicht gibt es bei der Radeon ja eine 12 GB Variante mit den diskutierten 275W und eine 24 GB Variante mit 300W TDP? Das könnte dann recht Takt neutral sein.
Hm, möglich, ich wollte gerade mal im 5500XT Test nachschauen, wie denn so der Unterschied zwischen 4 und 8GB ausfällt, aber das ist ja auch nicht so einfach, da die 8GB Version ja auch schneller ist und natürlich daher auch etwas mehr verbraucht.
Dort waren es 100W zu 115W die vom Afterburner ausgegeben wurden. Okay das ist der Verbrauch der reinen GPU, die 8GB Version braucht also 15W mehr, weil sie mehr FPS liefert.
Die Taktraten unter Last sind dann bei der 4GB Version tatsächlich minimal höher(wir reden hier von ~30Mhz), obwol die 8GB Version einen leicht höheren Game Clock auf dem Papier haben soll.

Im Spiele Schnitt verbrauchen aber beide die gleichen 130W, obwohl die reine GPU Power der 8GB Variante 15W höher gemessen wurde. Und da der Verbrauch in 4K gemessen wurde, dürften beide Karten auch den Speicher ziemlich voll gehabt haben. Die Taktraten wurden hingegen leider in 1080p gemessen, es könnte also durchaus sein, dass die 8GB Version hier stärker runtergehen musste.



Aber was man bei AMD Karten auch nicht vergessen darf: Die TBP ist kein Limit, an das sich die Karte halten muss, die wird eigentlich nur durch die TDP begrenzt und die ist unabhängig vom Speicher, da hier nur der reine GPU Verbrauch zählt.
Die 12 und 24GB Karten können also die gleiche TDP haben, nach der sich der Takt richtet, und die 24GB Variante wird eben je nach Speicherbelegung als ganzes etwas mehr verbrauchen.
 
Unnu schrieb:
nVidia baut gerne goldene Käfige, und sie werden das auch mit DLSS versuchen.
Kann ich auch bedingt verstehen, auch wenn ich es nicht gut finde.

Vor einigen Jahren hätte ich noch gesagt, dass das ja okay ist und sowieso. Seit ich aber gesehen habe, welche Käfige - und da ist NVIDIA sogar noch harmlos, ich sag nur Oracle, SAP und Co - andere Firmen bauen und wie man dann auf Gedeih und Verderb diesen aus geliefert ist, ist NVIDIA für mich ja sogar noch ein richtig sympathisches Unternehmen. Wir sprechen dann hier teilweise von "Produkteinstellungen" und den Umzug auf das Nachfolge-Produkt muss dann noch extra gezahlt werden, aber das gibt es dann nur in der Cloud bei den auf den Servern und Datenschnittstellen usw. gibts dann nicht aber man kann ja für 1500 pro Stunde ein "Auftrag" erstellen usw.

(Andere Firmen erwähne ich nicht aus "berufliche" Gründen. …)
 
  • Gefällt mir
Reaktionen: Unnu, .Sentinel. und monitorhero
Taxxor schrieb:
Ich weiß aber nicht wie es sich mit dem Verbrauch hier verhält, verbrauchen die Module mehr, je voller sie sind? Und wenn ja, werden sie nacheinander belegt oder alle gleichmäßig?
Der Speicher verbraucht Strom, wenn er hoch getaktet ist. Der Takt geht immer dann hoch, wenn viele Daten geschrieben oder gelesen werden, also liegt bei zum Beispiel Spielelast konstant der hohe Takt an. Dann verbraucht der gesamte Speicher seine 3W pro Modul. Die Speichermodule müssen ja parallel betrieben werden, um die volle Bandbreite zu erhalten. Wie voll der Speicher dabei ist, ist egal.
 
  • Gefällt mir
Reaktionen: Mcr-King
.Sentinel. schrieb:
Peak FP ist konstant, wenn Du die ALUs nur mit FP beschickst.
Und es ist egal, ob FP/INT oder nur FP. Sobald Du die Möglichkeit hast, das ganze doppelt zu beschicken, ist es eine Verdoppelung der Einheiten, welche diesen Workload abarbeiten können.

Wie kannst du behaupten, dass Peak FP konstant ist, wenn du gleichzeitig eine Bedingung hinterherschiebst?

.Sentinel. schrieb:
Ja- Schau Dir das Reddit Q&A an. Das hat ja jetzt wirklich oft genug die Runde gemacht.

Dann kannst du ja sicherlich einen Link bieten, du weisst schon, Beweislust ist bei dem der behauptet.

.Sentinel. schrieb:
Programmier eine DX12/DXR kompatible Anwendung, dann siehst Du es.

Werde ich sicher nicht machen. Und da du die Behauptung aufgestellt hast bitte die Quelle liefern.

.Sentinel. schrieb:
Siehe oben. Solche "Such den Ball"- Spiele kann man gern mit jemand anderem treiben.

Ja, und ich wiederhole mich, weil du entweder unterstellst oder behauptest.

.Sentinel. schrieb:
Und wo genau siehst Du jetzt das Problem eine Int- Berechnung zu erkennen und dann zuzuteilen?
Womöglich einem SM, der eh schon mit Int belegt ist?

Es gibt nichts einfacheres, als eine Erkennung auf Treiberebene einzubauen, dass wenn wir ganzzahlig rechnen, das auch auf einen entsprechenden SM zu legen.

Hast du dich jemals mit Optimierung und Komplexitaetstheorie auseinandergesetzt und sagt dir NP hart etwas? Das was du hier als einfach beschreibst ist es nicht, zumindest wenn du nicht eine Menge Leistung verlieren willst. Da es scheint als fehlt dir dieses Hintergrundwissen werde ich darauf auch nicht weiter eingehen. Einfach einlesen.

.Sentinel. schrieb:
Natürlich nicht, weil die Technischen Rahmendaten rein garnichts an den bis dahin schon erschienenen Leistungstests rütteln konnten. Und die bescheinigeten der Karte nunmal eine überlegene Preis-/Leistung.

Wir hatten es von einem Imageschaden, und jetzt kommst du wieder mit etwas anderem. Ok, also ist es wohl doch kein Problem, dass Nvidia erzaehlt was sie wollen.

.Sentinel. schrieb:
Du musst es ja wissen.

Zeig mir, dass es keine Peanuts sind. Du meintest das waere immens teuer.

.Sentinel. schrieb:
Aha - Also doch eine Markendiskussion?

Nein, eine Imagediskussion. Nvidia hat ein gutes Image und da ist Verbrauch dann halt egal.

.Sentinel. schrieb:
Das Bessere ist des Guten Feind. Und danach geht einfach die Mehrheit.

Der war gut... Die Mehrheit geht nach Marketing weil sie keine Ahnung hat.

.Sentinel. schrieb:
Genau - Und letzterer hat den Aufstand geprobt.

Zeig mir bitte die Verkaufszahlen dazu.

.Sentinel. schrieb:
Nein- Du stellst es als Falschaussage hin.
Nur ist es einfach so, dass wenn ich statt einer FP32 nun zwei FP32 nutzen kann, dann habe ich die Anzahl an FP32 fähigen Einheiten verdoppelt.

Faehig, ja, die doppelte Anzahl, nein. Ampere hat die gleichen CUDA Cores wie Turing, mit dem kleinen Unterschied, dass die INT auch FP berechnen koennen. Damit sind es noch lange nicht 10k CUDA Cores.

.Sentinel. schrieb:
Dir ist schon klar, dass wenn sich die Zahlen anhand der Beispiele nicht reproduzieren lassen sofort der Vorwurf von false advertising im Raum steht?

Und wie viel Einfluss haette das auf den Verkauf, abgesehen von denen die wirklich Techpublikationen lesen? Sie sehen die Zahlen am Anfang vielleicht, denken sich wie toll, und kaufen. Das war es.

.Sentinel. schrieb:
Die ist auch klar, dass dann die Reputation einer inzwischen geachteten Tech- Publikation im Eimer ist?
Glaubst Du wirklich, dass sie das respektive der Leistung, die hier im Raum steht riskieren oder nötig haben?

Waere jetzt nicht unbedingt das erste mal. Alleine fuer die Aktion sich fuer Nvidias Marketing einspannen zu lassen ist der Channel bei mir durch. So beweist man keine Unabhaengigkeit.

.Sentinel. schrieb:
Jetzt kommst Du aber ganz schön in den Blödsinn... Wie nennt man es denn, wenn jetzt statt einer Einheit XY berechnen kann, das ganze nun zwei Einheiten berechnen können?

Du hast nicht die doppelte Anzahl an FP32 Einheiten. Du hat sie nur im Idealfall. Daraus kann man jetzt wie Nvidia und du rauslesen, dass das die doppelte Anzahl an Einheiten sind. Dann beschmeisst man die Karte mit genug INT und sieht eben ziemlich schnell, dass es eben nicht die doppelte Anzahl ist.

.Sentinel. schrieb:
Wenn die Schaltung vorhanden ist und die Leistung programmiertechnisch abrufbar ist, so ist die Lage eindeutig. Da kannst Du Dich noch so sehr in Definitionsklimmzügen üben.

Den Definitionsklummzug hat Nvidia schon gemacht, da muss ich nichts nachliefern.

.Sentinel. schrieb:
Und auch dazu legt nvidia seine Zahlen offen und macht überhaupt kein geheimnis draus, dass die Anzahl der Int- Einheiten gleich bleibt. Warum auch, wenn vorher die Einheiten oftmals unausgelastet waren...

Die Behauptung, dass die nicht ausgelastet waren kommt auch von Nvidia und ist erstmal nicht mehr. Aber wenn du INT nutzt hast du eben keine 2x FP Leistung. Waere Nvidia ehrlich, haetten sie 18-36 TFLops FP32 fuer die 3090 angegeben, und fuer die anderen equivalent. Haben sie aber nicht um den Eindruck zu erwecken, dass diese immer zur Verfuegung stehen, was sie eben nicht tun.

.Sentinel. schrieb:
Dann ist das halt so.
Nur solltest Du bedenken, dass es wenigstens überhaupt eine Umsetzung ist, die lange Zeit undenkbar war und mit Ampere in die breit nutzbare Phase übergeht.
Für eine Technik, die Du meh findest, doch ganz respektabel....

Naja, Raytracing existiert schon ewig. Nvidia nutzt es jetzt halt als Verkaufsargument. Und auch du hast nicht zwischen Idee und Umsetzung entschieden mit deinem letzten Satz. Ich finde die Umsetzung meh, nicht die Technik.

.Sentinel. schrieb:
Die besteht bei den meisten. Wenn nicht akut im offenen Forum dann oftmals doch vielleicht nach der Hitze des Gefechts oder PN. Da wurde ich schon oft angenehm überrascht.

Die Erfahrung habe ich bisher noch nicht gemacht, eher das Gegenteil.

.Sentinel. schrieb:
Ersteres ist zumindest ein Versuch die Perspektiven zu wechseln und mehr, als das was man sich von vielen Mitdiskutanten hier erhoffen kann.

Naja, das kann auch nur dazu dienen den anderen das zu signalisieren und nicht komplett als Fanboy rueberzukommen.

.Sentinel. schrieb:
Mach eine Ausbildung im CAD/CAM- Bereich. Dann gibts Förderung- Auch seitens nvidia.

Komplett nicht mein Bereich und in den werde ich auch nicht mehr einsteigen. Gibt es fuer die Arten der Foerderung eine Seite oder kommt man da nur als Firma ran?

.Sentinel. schrieb:
Sowohl, als auch. Du musst halt Deinen Hintergrund stimmig darstellen können.

Ist das eine Art Bewerbung?

.Sentinel. schrieb:
Über einen Titan lachen die... Die kannibalisieren sich die Quadros! Also da, wo tatsächlich das Geld gemacht wird. Sie haben sogar die Studio- Treiber für die Consumer- Karten freigegeben...
Vielleicht können die Spieler nicht begreifen, was da gerade passiert. Im Semiprofessionellen Bereich und darüber hinaus steht gerade kein Stein mehr auf dem anderen.

Dafuer haben sie allerdings auch gesorgt, dass laut deren AGBs die Geforce Karten nicht ueberall eingesetzt werden duerfen. Und wie sieht es mit Support aus?

.Sentinel. schrieb:
Lass uns doch auf den Release von Ampere warten.

Gerne.

.Sentinel. schrieb:
Ich versprech Dir, dass ich der erste bin, der hier öffentlich schimpft, wenn das mit der automatischen oder manuellen Verteilung INT/FP nicht ordentlich klappen sollte, oder ich anderen Mist entdecken sollte.

Hat weniger mit dem nicht klappen zu tun, sondern, dass Nvidia sich damit noch mehr Kloetze an die Softwarebeine bindet. Ich denke schon, dass sie es hinbekommen werden, allerdings glaube ich auch, dass es in einigen Faellen zu Problemen kommen kann. Ich denke nicht, dass die sich damit einen Gefallen getan haben.

.Sentinel. schrieb:
Auch, wenn sich die 60%+ im Schnitt, die sich überall abzeichnen, nicht bewahrheiten sollten.

Fuer sowas warte ich eh auf unabhaengige Tests.

KlaraElfer schrieb:
Langsam merkt man hier woher der Wind weht, gut Nacht.

Ich denke du solltest das Zitat noch einmal lesen denn es sieht nicht danach aus, dass du es verstehst. Aber um es kuerzer zu machen, nur weil jemand eine interessante Technologie umsetzt, muss das noch lange nicht heissen, dass die Umsetzung toll ist. Das ist komplett unabhaengig. Hier wird aber unterstellt, dass wenn man Raytracing toll findet, man natuerlich auch Nvidias Umsetzung toll finden muss. Das ist natuerlich Schwachsinn.
 
  • Gefällt mir
Reaktionen: bugmum
Kacha schrieb:
Ich denke du solltest das Zitat noch einmal lesen denn es sieht nicht danach aus, dass du es verstehst.

Richtig, ich verstehe nicht, wie man so verfrüht derart starke Wertungen vornehmen kann, ohne dass einem die Wertung später auf die Füße fällt. Das gilt genauso für RTX Voice.

Kacha schrieb:
Aber um es kuerzer zu machen, nur weil jemand eine interessante Technologie umsetzt, muss das noch lange nicht heissen, dass die Umsetzung toll ist.

Dann wäre ich an einer ausführlichen technischen Erklärung interessiert, die habe ich nicht gesehen.

Kacha schrieb:
Hier wird aber unterstellt, dass wenn man Raytracing toll findet, man natuerlich auch Nvidias Umsetzung toll finden muss.

Das wird nicht unterstellt. Mich wundert einfach nur deine extreme Wertung von Dingen, die noch nicht mal vollends vorgestellt sind, geschweige sich denn final einordnen lassen, auch im Leistungsvergleich mit dem Mitbewerber, denn die Software ist noch nicht für Ampere angepasst.

DLSS siehst du als Beschiss, RTX Voice ist schlecht und Nvidias RT Umsetzung/Technik schwach.
Da erfüllst du alle stereotype einer Markendiskussion, sprich dir passt das Firmenlogo nicht und da war meine Hoffnung eigentlich, dass man von dem unnötigen Kram langsam mal wegkommen würde.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel.
Teralios schrieb:
und da ist NVIDIA sogar noch harmlos, ich sag nur Oracle, SAP und Co - andere Firmen bauen und wie man dann auf Gedeih und Verderb diesen aus geliefert ist, ist NVIDIA für mich ja sogar noch ein richtig sympathisches Unternehmen.
nVidia harmlos? Naja, sagen wir, sie waren nicht immer erfolgreich.
Joahhh, da kommen wir jetzt in den Bereich der Unternehmenssoftware.
(Unternehmen, die eine SAP-Einführung überleben, haben tatsächlich ein robustes Geschäftsmodell, alle anderen waren zu schwach! ;) )
Dort gelten wieder ganz eigene Gesetze, ... die man nun wahrlich nicht gutheißen kann.
Schreib da mal MS noch mit rein! Exchange und die komplette Office-Suite, etc. pp.
Oder auch der allseits geliebte Apfel.
Oder, neuester Trend, die Computer anderer Leute, auch genannt „Cloud“. Da gibt es auch nur 3 wirklich ernst zu nehmende „Wettbewerber“. Klassischer Lock-In.
Immerhin, ich sehe einige Bewegung in Richtung OS, auch wenn es noch einiges dauern wird, bis sich da signifikant etwas ändert. Aber das wird alles zu OT.

Was mich an nVidia stört, ist, dass sie halt Beinhart diesen Kurs „Wir sind die schönsten, besten, schnellsten, etc. “ durchziehen und dabei jede Menge Leichen von ehemals toller Technik produzieren und in der Regel auf ihre Kunden scheissen.
AMD fährt immerhin den Kurs der Zusammenarbeit und der OS.
Und völlig egal ob beide Unternehmen nun AGs sind & Gewinnorientiert, WIE sie den Gewinn realisieren und ob sie dabei auf Zusammenarbeit oder Ausgrenzung setzen, also ihre Unternehmenskultur, das gibt bei mir den Ausschlag.

Das ist wie mit den Präsidenten der USA. Obama war letztlich genauso Kaltschnäuzig wie Trump. Jedoch kam er sympathisch rüber und man hatte das Gefühl, dass er sich wenigstens bemüht auch andere leben zu lassen. Trump interessiert sich nur für sich selbst und pfeift auf alles andere, wenn er es nicht zerstören kann.
 
  • Gefällt mir
Reaktionen: monitorhero und .Sentinel.
Unnu schrieb:
Was mich an nVidia stört, ist, dass sie halt Beinhart diesen Kurs „Wir sind die schönsten, besten, schnellsten, etc. “ durchziehen und dabei jede Menge Leichen von ehemals toller Technik produzieren und in der Regel auf ihre Kunden scheissen.
AMD fährt immerhin den Kurs der Zusammenarbeit und der OS.

Lustigerweise denkt man das von Herausforderern oder kleineren Firmen immer, bis sie dann letztlich an die Macht kommen oder genug Schäfchen um sich rum gekarrt haben.

Dein toller AMD Kurs ist letztlich bedingt dadurch, dass man mit 20% Marktanteil im GPU Markt und einer schlechten finanziellen Lage nicht viel zu sagen hat und wenn die Produkte nicht stimmen, dann muss man Klinken putzen und in den Hintern kriechen, damit man wenigstens die Fans bei sich halten kann.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Kacha schrieb:
Du hast nicht die doppelte Anzahl an FP32 Einheiten. Du hat sie nur im Idealfall.
Also sind die hardwaretechnischen Voraussetzungen für 2x FP32 gegeben?
Was hast Du dann mit den Einheiten, die FP32 zeitgleich berechnen können getan?
Verdoppelt etwa?

Ja, aber aber aber....

Dein definitionstechnisches Bullshit- Bingo kannst Du Dir an der Stelle sparen. Hättest Du nicht zwei statt einer Einheit, die FP32 berechnen, könntest Du die Berechnungen nicht parallel durchführen.
Wie das ganze bewerkstelligt wird, steht auf einem anderen Blatt. Die Recheneinheiten stehen nunmal physikalisch zur Verfügung.

Nach Deiner Definition hatten die Vorgängergenerationen an Grafikkarten bzw. jedes andere Produkt, welches bei FallXY zyklisch den Kontext wechseln muss, jeweils 0-x Kerne und 0-x Teraflops.

Hast du dich jemals mit Optimierung und Komplexitaetstheorie auseinandergesetzt und sagt dir NP hart etwas? Das was du hier als einfach beschreibst ist es nicht, zumindest wenn du nicht eine Menge Leistung verlieren willst. Da es scheint als fehlt dir dieses Hintergrundwissen werde ich darauf auch nicht weiter eingehen. Einfach einlesen.
Wärest Du sattelfest, würdest Du den Ablauf der Pipeline kennen und bemerken, dass die Unterscheidung bereits bei den Vorgängergenerationen getroffen werden musste. Die Pfadwahl wird da wohl das geringste Problem sein.
Du machst hier aus einer Mücke einen Elefanten (Stichwort Giga Thread Engine/Command Buffering/Command Queuing/Wave oder bei AMD Warp). Und versteckst hier Dein eigenes Transferproblem, also den Sachverhalt, auf den es hier tatsächlich ankommt, hinter einer vermeintlichen knowledge- Wall.
Eine Logik, die im Dispatcher statt Datapath 1 den Datapath 2 triggert, ist KEIN Hexenwerk.

Waere Nvidia ehrlich, haetten sie 18-36 TFLops FP32 fuer die 3090 angegeben, und fuer die anderen equivalent.
Der Einfachheit halber zitiere ich damit den einzigen Satz, dem ich nebst irgendwelcher Graben- und Markenkämpfe, die Du hier weiter zu implizieren versuchst, Bedeutung beimesse.

Das sehe ich ähnlich, aber frage Dich zugleich, wieviele (Cuda) Cores bzw. TFLOPS gestehst Du dann den Vorgängern von Turing oder GCN in der Vergangenheit zu? Alles nur Marketing? Wo war da Dein Aufschrei?

Wie bereits angekündigt, Deine Spielchen, die auch aus Deiner offensichtlichen Rhetorik zeugen, gehe ich nicht mit.
Wir sprechen wir uns wieder, wenn die Karten da sind, da das hier dann nur noch weiter zu irgendwelchen kühnen Unterstellungen führen würde, die Du mir ja vorwirfst, selbst aber mit äußerster Freizügigkeit einstreust.

Anders ist eine auch von Dir nachvollziehbare Beweisführung meinerseits logischer Weise nicht möglich.
Denn das Totschlagargument, dass alles Marketing sei und entsprechend aufgeblasen wird, bis zum Zeitpunkt des Releases kann von allen "Skeptikern" gebracht werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
xexex schrieb:
Dein toller AMD Kurs ist letztlich bedingt dadurch, dass man mit 20% Marktanteil im GPU Markt und einer schlechten finanziellen Lage nicht viel zu sagen hat und wenn die Produkte nicht stimmen,
Ich würde nicht sagen, dass die "Produkte nicht stimmen", es geht auch um das Featureset und die Treiber, und egal in welches Forum man schaut, sogar im AMD subreddit, das ja nun uneingeschränkt pro AMD steht, wird das Treiberfiasko der vergangenen Generation immer wieder genannt, was einige auch zu Nvidia getrieben hat.
Das lag nicht an den GPUs per se!
 
KlaraElfer schrieb:
DLSS siehst du als Beschiss, RTX Voice ist schlecht und Nvidias RT Umsetzung/Technik schwach.
Da erfüllst du alle stereotype einer Markendiskussion,
So zeichnet es sich (leider) immer mehr ab...
Schade, da ich ansonsten das Gefühl habe, dass man mit ihm durchaus vernünftig und ein wenig in die Tiefe gehend plaudern könnte. Er hat ja auch vernünftige und nachvollziehbare Ansätze.

Stattdessen wird mal wieder Energie an den Markenwahn und die vermeintliche Mission verschwendet, anderen (unmündigen und lemmingartig agierenden) Leuten die Augen vor den bösen Machenschaften der Industrie (verhasste Marke hier eintragen) öffnen zu müssen, immer darauf hinweisend, dass es eine (vermeintlich) bessere Alternative in Form des Konkurrenzunternehmens gäbe, das zugleich zufälligerweise immer die technisch überlegenere Antwort parat hätte.
Ergänzung ()

Unnu schrieb:
Das ist wie mit den Präsidenten der USA. Obama war letztlich genauso Kaltschnäuzig wie Trump. Jedoch kam er sympathisch rüber und man hatte das Gefühl, dass er sich wenigstens bemüht auch andere leben zu lassen. Trump interessiert sich nur für sich selbst und pfeift auf alles andere, wenn er es nicht zerstören kann.
Das ist halt genau der Punkt. Es ist einfach angenehmer, sich auf nette Art und Weise verschaukeln/verführen zu lassen. Das müssen Intel und nvidia noch lernen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Unnu
@Kacha vs @.Sentinel. könnt ihr das bitte auch per PM weiter klären? Es gehören immer zwei dazu, dass hier die Threads durch Kreisdiskussionen zerrüttet werden. Genauso @KlaraElfer vs @Wadenbeisser.

Man kann auch, wenn man etwas zweimal präzisiert hat und der andere immer noch nicht übereinstimmt, einfach nicht weiterrreden.

Ich hatte eben noch ein Ampere-Detail, das ich nachfragen wollte, aber nach dem Lesen all der Wall-of-Texts erinner ich mich jetzt nicht mehr... :(
Naja, kommt vielleicht später wieder.
 
  • Gefällt mir
Reaktionen: Unnu, KlaraElfer und .Sentinel.
Colindo schrieb:
@Kacha vs @.Sentinel. könnt ihr das bitte auch per PM weiter klären? Es gehören immer zwei dazu, dass hier die Threads durch Kreisdiskussionen zerrüttet werden. Genauso

Einverstanden, wobei ich schon der Meinung bin, dass man aus diesen Diskussionen als jemand, der sich nicht nur oberflächlich mit den Zahlen befassen will, sondern auch was diese im Endeffekt wirklich aussagen oder bewirken können, schon Information ziehen kann.

Kachas Bedenken bzw. Einwände sind ja nicht aus der Luft gegriffen, sondern sind Fragen, die hier manchen Bewegen könnten und die auch praxisrelevant sind. Die Auslegung ist halt einfach "sehr einseitig".

Schwierig wirds halt genau dann, wenn das ganze, wie hier mal wieder geschehen, versucht wird auf eine persönliche Ebene zu ziehen (Ahnungslosigkeit, Fanboy) bzw. auf eine Markendiskussion hingesteuert wird. Und die Tendenzen sind hier mehr als erkennbar. Insofern - Hier Ende von mir.

Der Fall wird wie angekündigt weitergetrieben, wenn das ganze nachprüfbar ist, sprich man die Karten in den Händen hält.

Danke für den Hinweis, dass es für die Leser eher ermüdend wird.
 
  • Gefällt mir
Reaktionen: monitorhero
matty2580 schrieb:
Schon bei Vega hat das Fine-Wine-Prinzip versagt.
Ich glaube in dem Punkt sind wir uns auch einig, dass Treiber ....

Hast Du ne Glaskugel? Würde eher meinen, das die GameEngines passen müssen. (1)

Nach m.E. hat sich die Spielesoftware bedeutend langsamer entwickelt als gedacht.
Meine Hoffnung = mit den nextGen-Konsolen = mehr lowLvlApi (2)

edit:
Spekulation: Es könnte ja sein das in Zukunft mehr FP32-Leistung gefragt ist.(3)
(3) Da sieht Vega gar net so schlecht aus vgl. mit Turing.(RX56 vs. RTX2060 = nur auf Höhe der 1070 !!!)
AMD Radeon RX Vega 56 Specs | TechPowerUp GPU Database
NVIDIA GeForce RTX 2060 Specs | TechPowerUp GPU Database
NVIDIA GeForce GTX 1070 Specs | TechPowerUp GPU Database


Z.Bsp.
(1)Marvels Avenger sollte ausreichend gut auf Vega laufen.(man bleibt in der Freesync-Range vom Moni,
bzw. könnte mit 1-2 Regler links viel machen)
(2) GRB neuerdings mit Vulkan ist auch net schlecht.(doch ggü. DX11 ein Fortschritt = Drawcalls?!)
Und noch die üblichen Verdächtigen wie Control,RDR2,ME,G5,CODMW,BF5+B3.(B3 ist etwas komisch)

Wer jetzt nicht gerade hohe Fps braucht kann in Ruhe auf die kleinen Grakas in 2021 warten.
(für mehr Fps halt Regler benutzen oder Auflösung runter)
 

Anhänge

  • GRB-WQHD@DX11.png
    GRB-WQHD@DX11.png
    32,5 KB · Aufrufe: 320
  • GRB-WQHD@Vulkan.png
    GRB-WQHD@Vulkan.png
    32,5 KB · Aufrufe: 313
  • B3@DX12.png
    B3@DX12.png
    31,2 KB · Aufrufe: 322
  • BF5@DX12.png
    BF5@DX12.png
    24,3 KB · Aufrufe: 318
  • CODMW@DX12.png
    CODMW@DX12.png
    30,5 KB · Aufrufe: 310
  • Control@DX12.png
    Control@DX12.png
    31,8 KB · Aufrufe: 318
  • DE@Vulkan.png
    DE@Vulkan.png
    27,1 KB · Aufrufe: 307
  • G5@DX12.png
    G5@DX12.png
    28,1 KB · Aufrufe: 315
  • MA@WQHD.png
    MA@WQHD.png
    28,7 KB · Aufrufe: 312
  • ME-high@DX12.png
    ME-high@DX12.png
    27,5 KB · Aufrufe: 317
  • RDR2@Vulkan.png
    RDR2@Vulkan.png
    31,9 KB · Aufrufe: 316
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
xexex schrieb:
Dein toller AMD Kurs ist letztlich bedingt dadurch, dass man mit 20% Marktanteil im GPU Markt und einer schlechten finanziellen Lage nicht viel zu sagen hat und wenn die Produkte nicht stimmen, dann muss man Klinken putzen und in den Hintern kriechen
Davon abgesehen, dass es nicht mein Kurs ist, (I wish, dann hätte ich nämlich was zu sagen in dem Laden und hätte ausgesorgt!) wüsste ich gerne was gegen einen Kurs spricht, die Community und OS zu stärken und somit die Gesamtentwicklung voran zu bringen?
Ja AMD sind der Underdog. Und?
Sie müssen trotzdem nicht die Community unterstützen. Und wenn ich mir ansehe, was die schon alles angeschoben haben, was dann eben wegen mangelnder Unterstützung versandet ist, denke ich, dass mit dem „in den Hintern kriechen“ müssen sie noch üben.

Ganz im Gegensatz zu nVidia übrigens, die die meisten Entwickler ja mit Geld und „Unterstützung“ überhäufen, damit die ja nicht auf dumme Gedanken kommen und nicht mehr das proprietäre Zeuch nutzen.
Die sind da echt gut darin, ihre Schäfchen zusammen zu halten.
Ergänzung ()

.Sentinel. schrieb:
Es ist einfach angenehmer, sich auf nette Art und Weise verschaukeln/verführen zu lassen.
Richtig. Wenn ich mich schon verar... lasse, dann will ich mich wenigstens gut dabei fühlen können.
 
Zurück
Oben