Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

KlaraElfer schrieb:
Naja, diese Aversion gegen 720p Testungen fällt bei mir generell unter Aluhutgedöns.
Ich kann alle Für- und wider Argumentationsketten da bestens nachvollziehen.
Für mich zählt dann aber letztenendes der Erfahrungsschatz.

Eine CPU die im Schnitt unter einem Snapshot XY überragende Spieleleistung zeigt, verliert diesen Status nicht innerhalb der nächsten 5 Jahre. Und das zu 99% Spieleunabhängig.
Unrühmliche Ausnahmen gibt es dabei immer, wobei da dann eher nicht der Prozessor ins Gebet zu nehmen ist.
 
  • Gefällt mir
Reaktionen: KlaraElfer
.Sentinel. schrieb:
Ist ein SM im Teilbereich blockiert bzw. mit reinem Int unterbucht, dann hat man da halt einen Effizienzverlust hinzunehmen. Alles besser, als die Einheiten wie bei Turing oftmals unbeschäftigt zu lassen.
Diesen Effizienzverlust hattest du aber früher auch Pascal, wenn eine SM eben nicht die 128 Werte zusammen bekommen hat, was auch nicht so selten vorkam.

Die Reduzierung damals bei Volta auf 64 ALU pro SM war ja bei Volta durchaus eine gute Entscheidung und auch bei Turing ist es eine gute Entscheidung gewesen. Dass man nun den INT-Block zu einem zweiten "unabhängigen" Block ausgebaut hat, damit man nun 2 FP Berechnungen auf der SM durchführen kann ist auch sehr klug.

Es ist wahrscheinlicher, dass man 2 * 64 wirklich gut füllen kann, als 1 * 128.

Dennoch muss man dann erwähnen, dass Ampere eben durch diese etwas komplexere Struktur durchaus auch etwas schwerer in der Treiber Programmierung wird für NVIDIA, aber da hab ich bei NVIDIA keine Zweifel.

Man muss hier auch anmerken, dass NVIDIA auf der Hardware-Ebene durchaus sich auch AMDs Lösungsansatz annähert. Nur das bei AMD halt 2 * 32 Shader unabhängig angesprochen werden, bei NVIDIA nun halt 2 * 64.
 
  • Gefällt mir
Reaktionen: Mcr-King und .Sentinel.
  • Gefällt mir
Reaktionen: autoexe und Mcr-King
Nolag schrieb:
Natürlich ist die Ursache für das CPU-Limit aktuell Spekulation. Man weiß nicht ob es an DX11 liegt und wie weit DX12 das CPU-Limit verschieben würde. Das CPU Limit kann auch hauptsächlich durch die neue Aerodynamiksimulation verusacht werden.
Dann wirf nochmal einen Blick auf die getesteten CPUs wo sich bereits ab den 4 Kernern bei der CPU Generation kaum noch was bewegt und spätestens bei den 6 Kernern offensichtlich Feierabend mit der Kern Nutzung ist da sich hier nur noch was über den Takt bzw. der IPC bewegt. Offensichtlicher geht es ja kaum noch.

Mich wundert eher das Geforce und Radeon an der glechen Stelle ins CPU Limit des Spiels rauschen, vermutlich muss nvidia die Multicore Krücke dafür noch zurecht biegen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wishezz schrieb:
Ich gehe auch mal davon aus, dass es eine 3080Ti geben wird mit hoffentlich 12 GB.
Leistung hin oder her, aber aus Prinzip kauf ich nix was weniger VRAM hat als meine jetzige Karte :-D
Es wird bereits ja angedeutet, dass eine 3070Ti, 3080Ti 16 sowie 20GB VRAM haben werden.
 
  • Gefällt mir
Reaktionen: Wishezz und Mcr-King
Wadenbeisser schrieb:
Ich Sprach also nicht schlecht über den Treiber sonder über die ineffiziente Hardware Nutzung der Spiele selbst.

Gut macht Sinn, ansonsten hättest du ja auch einfach sagen können, dass AMD noch langsamer performt.
 
Wadenbeisser schrieb:
Dann wirf nochmal einen Blick auf die getesteten CPUs wo sich bereits ab den 4 Kernern bei der CPU Generation kaum noch was bewegt...
Das frühe CPU Limit leugnet doch niemand. Es betrifft mich nur nicht und die URSACHE für das frühe CPU Limit ist aktuell unbekannt, weshalb die Behauptung, dass es haupsächlich am DX11 Renderer liegt, aktuell reine SPEKULATION ist.
Wadenbeisser schrieb:
Mich wundert eher das Geforce und Radeon an der glechen Stelle ins CPU Limit des Spiels rauschen, vermutlich muss nvidia die Multicore Krücke dafür noch zurecht biegen.
Wenn AMD an der gleichen Stelle ins CPU Limit läuft wie Nvidia, dann deutet das auch eher auf die Simulation als Ursache hin.
 
Teralios schrieb:
Es wird bereits ja angedeutet, dass eine 3070Ti, 3080Ti 16 sowie 20GB VRAM haben werden.

ja nicht nur angedeutet sondern durch Micron und Lenovo im Prinzip in direkt bestätigt. ;)
 
  • Gefällt mir
Reaktionen: Benji18 und Teralios
Mcr-King schrieb:
ja nicht nur angedeutet sondern durch Micron und Lenovo im Prinzip in direkt bestätigt.
Ich weiß, aber ich bleib da lieber bei einer wagen Aussage, da es ja noch nicht so ist und ich es ja auch nicht weiß und solange ich es nicht weiß, sag ich niemals es kommt so.

Strenger akademischer Haushalt, nur wenn man sich sicher ist, soll man sagen: Es ist so. :D
 
  • Gefällt mir
Reaktionen: Wishezz, voalirus und Mcr-King
Nolag schrieb:
Wenn AMD an der gleichen Stelle ins CPU Limit läuft wie Nvidia, dann deutet das auch eher auf die Simulation als Ursache hin.

Auch wieder ja und nein da NV DX11 Multicore Render echt klasse ist, nur halt recht aufwändig und ich denke man hat sich beim MS2020 einfach gedacht schei* drauf im vergleich zum BF XY keine Relevanz.
 
matty2580 schrieb:
Mein Deutschleistungskurs, also beim Abi, ist 7 Jahre her.
Und auf solche Interpretationen habe ich keine Lust....

Das hat recht wenig mit Deutsch Leistungskurs zu tun. Auf Twitter wird von den Dies GA102/GA104 gesprochen. Du warst es der daraus 3070/3080/3090 gemacht hat.

Teralios schrieb:
Also die letzten CUDA-Teste die ich mal machen durfte - ganz simples MADD, ADD sowie MUL mit "Vektoren" und passende Anzahl an Threads auf die GPU, das kann jeder programmieren - hat jede SM genau ein "CUDA Vector" mit 64 FP32 und eben einen mit INT32 geschluckt. Ein dritter mit 32 FP64 und über sowie entsprechend die 4 Tensor-Matrizen. Natürlich alles über 4 Threads aufgebläht für die A100.

Wuerde mich echt interessieren was die A100 da koennen. Vor allem ob sie die gleichen Moeglichkeiten haben wie die Gamingableger oder ob Nvidia dort das ganze nicht gemacht hat.

legenddiaz schrieb:
OK die Aussagen machen mir jetzt Angst...
Keine Lust 750€ auszugeben und dann 1 Jahr später im vram Limit schon zu sein...

Ich weiss echt nicht was ich machen soll jetzt...

Naja, dass RT mehr VRAM Verbrauch hat ist jetzt nicht das erste mal hervorgekommen. Das sollte man halt im Hinterkopf behalten. Stellst du es aus, sollte es weniger Probleme geben. Willst du es aber haben ist mehr VRAM keine schlechte Idee. Den Aussagen, dass 8GB auf jeden Fall reicht schliesse ich mich hingegen nicht an.

.Sentinel. schrieb:
Beantworte Dir einfach folgende Frage.
Können statt einer FP32 nun 2 FP32 Instruktionen simultan ausgeführt werden oder nicht? Wenn ja- Wie geht das, ohne dass die Möglichkeit geschaffen wurde 2x FP32 zu berechnen?

Das hatten wir doch schon... Das einzige was ermoeglich wurde ist die INT32 Einheit auch fuer FP32 zu verwenden. Allerdings eben nur das eine ODER das andere. Peak FP32 ist somit nicht konstant.

.Sentinel. schrieb:
Das hat der Nachgang, also der Fall der zweiten technical NDA, inzwischen schon gezeigt.

Dann kannst du dafuer ganz sicher den exakten Wortlaut oder Stelle angeben.

.Sentinel. schrieb:
Genau- Da ich aber weiss, was in den RT- Cores passiert, kann man dieses Suchszenario dementsprechend ausschließen. Ebenso das Szenario der Erstelleung einer Acceleration Structure.

Was? Wie kommst du bitte darauf?

.Sentinel. schrieb:
Du führst bereits eine Wertung durch, die Du aber in Deinen vorhergehenden Aussagen zu meiden versuchst.

Ich wiederhole mich: Was? Wie kommst du bitte darauf?

.Sentinel. schrieb:
Für eine Entscheidung, ob im Instruction Set Int oder nur FP benötigt wird? Und eine entsprechende Auslastung zu erzeugen?
-> Eindeutig nein!

Es geht um die Auslastung der Einheiten, welche Einheit was berechnet und welche Berechnungen zu welcher Zeit durchgefuehrt werden. Hat man keine fixen INT32 Einheiten oder will die Auslastung maximieren hat man natuerlich ein Optimierungsproblem und Nvidia hat gerade die Menge der Variablen erhoeht. Natuerlich wird das komplexer und damit schwieriger zu loesen.

.Sentinel. schrieb:
Ja- Die Firmen gehen gerade in der derzeitigen Situation keinerlei Risiken ein. Zumal der Markt durch Covid 19 und dem einhergehenden Investitionsunwillen dem ganzen noch Vorschub leistet.

Das ist deine Vermutung, ok. Meine ist es nicht. Warum habe ich schon dargelegt.

.Sentinel. schrieb:
Der Image- Schaden war enorm ganz abgesehen von dem Schadensersatz, den NVIDIA zu leisten hatte. Was glaubst Du, was ein derartiger logistischer Aufwand an Regulierung im Nachgang für so eine Firma bedeutet?

War er das? Oder ist das nur der 2% Imageschaden in Techforen? Wieviele Kaeufer bekommen das wirklich mit ausserhalb dieser Blase? Bei Intel haben es ein paar mehr mitbekommen, aber finanziell viel ausgemacht hat es im Endeffekt auch nicht.

Der logistische Aufwand und der Schadensersatz sind Peanuts gegenueber dem Gewinn. Vor allem weil nur ein Bruchteil wirklich den Ersatz einfordert.

.Sentinel. schrieb:
Niemanden, weil jeder, der die hardwaretechnische Entwicklung verfolgt und auch die physikalischen Grenzen berücksichtigt, auf die wir stoßen, einfach nur Leistungsplus gegen den Verbrauch stellt.

In der Tat, bei Nvidia interessiert das wirklich niemanden. Da wird es hingenommen und mit "Leistungsplus" abgetan.

.Sentinel. schrieb:
Genau, weil AMD ein merkliches Leistungsdefizit im Verhältnis zum Verbrauch der Konkurrenz hatte.

Bloss das es selbst dann angekreidet wurde als die Leistung passte. Aber gut, ist ok.

.Sentinel. schrieb:
Weil Meltdown, sowie Spectre abstrakte und nicht immanente Gefahren für den User darstellen. Der Aufwand diese Lücke zu nutzen übersteigt um Faktoren jeglichen Praxisnutzen. Zudem- Warum hier

Nebenkriegsschauplätze aufmachen? Das hinterlässt immer einen etwas "gedrungenen" Eindruck.

Das ist kein Nebenkriegsschauplatz, sondern ein Beispiel. Deine Behauptung war, dass das Produkt zu toll anzupreisen ja einen Imageschaden verursachen wuerde wenn es dann nicht so eintritt. Meltdown und Spectre waren mein Gegenbeispiel. Und wie du ja selbst bestaetigst, es gab nur minimal einen Imageschaden und das war es. Und das war um einiges mehr als ein Produkt als zu toll anzupreisen. Es ist natuerlich ironisch, dass du mit deiner Relativierung mein Argument bestaetigst.

.Sentinel. schrieb:
Die Reputation von Ubisoft hat dadurch deutlich gelitten. Sämtliche Titel, die im Nachgang auf den Markt gekommen sind, wurden mit Argwohn und sehr genau betrachtet.

In der Techpresse oder beim normalen Kaeufer? Letzterer zaehlt letztendlich.

.Sentinel. schrieb:
...wie z.B. man hat 10.000 FP32 Einheiten zur Verfügung...

Stellst du das jetzt als Falschaussage hin? Denn vorhin hast du es noch verteidigt.

.Sentinel. schrieb:
Was eine deutlich übertriebene Darstellung seines zukünftigen Produktportfolios zweifelsfrei darstellt. Zumal man ja damit virtuelle seine Konkurrenz auch manipuliert.

Naja, da gibt es doch ein paar Abstufungen. 80% mehr Leistung (in Spielen x, y, z) gegenueber zum Beispiel 40% mehr Leistung im Durchschnitt wird dazu nicht ausreichen. Hingegen zu behaupten man hat einen Investor gefunden, der die Firma von der Boerse nimmt schon.

.Sentinel. schrieb:
Genau den wirst Du aber auch für Dich in diesem Titel und diesem Szenario genau so nachvollziehen können.

Dir ist aber schon klar, dass das gezieltes Marketing ist, oder? Nichts davon ist bisher ueberpruefbar und natuerlich soll es dazu verleiten das Produkt zu kaufen.

.Sentinel. schrieb:
Noch einmal- Kannst Du statt einer FP32 nun unabhängig 2x FP32 Berechnungen durchführen oder nicht?
Hast Du bei Pascal auch die Corezahl halbiert, weil diese einen Kontextwechsel INT/FP benötigt haben, oder nicht?

Im Idealfall ja, im worst case, nein. Das heisst aber noch lange nicht, dass sich die FP32 Einheiten verdoppelt haben. Es heisst schlichtweg, dass die INT32 Einheiten AUCH FP32 berechnen koennen. Man hat die doppelte FP32 Leistung schlichtweg nicht zu jedem Zeitpunkt. Deswegen macht es auch keinen Sinn zu behaupten die doppelte Anzahl an Einheiten waere vorhanden. Der simple Gegenbeweis ist die Karte mit INT32 zu bombardieren.

.Sentinel. schrieb:
Jeder hat Tendenzen. Auch ich.
So kann ich mich z.B. nicht gegen Innovationen und interessante Technik wehren und bin da oftmals vielleicht ein wenig überschwänglich.
Siehe Radeon VII, primitive, Shader, Ray Tracing und und und....

Ich mag Innovationen auch, keine Frage. Aber selbst da kann man zwischen der Idee und der Umsetzung unterscheiden. Wenn allerdings die Umsetzung gut sein muss, bloss weil man die Idee mag gibt es ein Problem. Raytracing kann toll sein, Nvidias Umsetzung finde ich technisch eher meh.

.Sentinel. schrieb:
Genau- Viele sehen hier nicht das Produkt und die Technik, sondern die Firma, die dahintersteht.
Damit kann ich nichts anfangen.

Naja, das gilt sowohl fuer die Kritiker, als auch die Fans.

.Sentinel. schrieb:
Das wiederum ist garkein Problem, weil das der Ursprung aller Diskussion ist. Erstmal geht jeder davon aus, dass seine Meinung die richtige ist.

Naja, nur wenn die Bereitschaft besteht die Meinung auch zu aendern.

.Sentinel. schrieb:
Schön ist es ja, wenn sich überhaupt Leute neutral geben. Das bedeutet ja bereits, dass sie den Sachverhalt nicht nur von einer Seite beleuchten.

Neutral geben und neutral sein ist ein Unterschied. Zweiteres ist positiv, ersteres naja.

.Sentinel. schrieb:
Machine Learning geht ja eher in den professionellen Bereich.
Wenn nicht, dann zumindest in den Fortbildungsbereich, in welchen nvidia Sonderprogramme auflegt, wo Du die Karte günstiger erstehen könntest.

Fortbildungsbereich... Ich wuerde das eher spielen nennen. :D

Gibt es die Programme fuer Privatpersonen? Das einzige das ich kenne sind fuer Institutionen.

.Sentinel. schrieb:
Das ist die Problematik, die viele von unseren Kunden haben. Jedoch muss man dazu sagen, dass sich nvidia diesbezüglich mit ihren 1500,-€ und 24 GB VRAM und der gebotenen Leistung selbst derbe kannibalisieren.

Mit der 3090 schneiden die sich in mehrfacher Hinsicht ins eigene Fleisch.

Was kannibalisieren sie denn? Die alte Titan? Das wuerde ich eher Fortschritt nennen wenn man mal fuer mehr Leistung nicht immer nur mehr bezahlt. Mal davon abgesehen, dass es wohl doch noch eine neue Titan geben wird, da die 3090 wohl doch nicht der Vollausbau ist.

.Sentinel. schrieb:
Man kann den Kerl mögen oder nicht. Aber er hat eine unfassbar auf Fortschritt, Innovation und Führerschaft getrimmte Einstellung.

Naja, was er da redet ist doch normal im Techbereich. AMD hat das gleiche mit Su ja auch. Intel, gut ok... Wenn man nicht eine aehnliche Einstellung wie er hat in dem Bereich, dann sollte man vielleicht doch eher Autos bauen. Der musste sein.
 
  • Gefällt mir
Reaktionen: Mcr-King
Teralios schrieb:
Strenger akademischer Haushalt, nur wenn man sich sicher ist, soll man sagen: Es ist so. :D

ich weiß ja mehr von Msi darf nur nix sagen naja auch zur RX6900/6800 genauer Name natürlich Spekulatius hüst. ;) ach man warum muss man so ein Käse unter schreiben.
Ergänzung ()

Kacha schrieb:
Wuerde mich echt interessieren was die A100 da koennen. Vor allem ob sie die gleichen Moeglichkeiten haben wie die Gamingableger oder ob Nvidia dort das ganze nicht gemacht hat.

Nein außer die Titan ist mehr oder weniger so ein Hybrid damit man was gegen die R VII hatte grade was intger angeht.
 
Kacha schrieb:
Wuerde mich echt interessieren was die A100 da koennen. Vor allem ob sie die gleichen Moeglichkeiten haben wie die Gamingableger oder ob Nvidia dort das ganze nicht gemacht hat.
Ich hab den bekannten gefragt, ob er mir mal 20 - 30 Min freischaufeln kann auf dem Cluster, und dass ich dann mal das absenden kann, ob man 2 * FP Vektoren auf das Ding los lassen kann in die SM und ob er dann 1 Takt oder 2 Takte braucht.

Aber das Ding ist halt voll in Beschlag. XD
 
KlaraElfer schrieb:
Gut macht Sinn, ansonsten hättest du ja auch einfach sagen können, dass AMD noch langsamer performt.
Auch das stimmt so nicht wirklich denn wenn die CPU bei beiden wirklich ausgelastet ist fällt der Geforce der Treiber Overhead durch das Multicore Workaround wieder auf die Füße. Da aber eher die Regel war das nur ein Bruchteil der Kerne/Threads der CPU vom Spiel genutzt wurden......

Nolag schrieb:
Das frühe CPU Limit leugnet doch niemand. Es betrifft mich nur nicht und die URSACHE für das frühe CPU Limit ist aktuell unbekannt, weshalb die Behauptung, dass es haupsächlich am DX11 Renderer liegt, aktuell reine SPEKULATION ist.
Das nat nichts mit Spekulation zu tuen denn es ist bekannt das DX11 ein ziemliches Problem mit der Lastverteilung hat, Stichwort Hauptthread. Ist der dicht ist es auch mit der Lastverteilung vorbei. Ein Problem das eine vernünftige DX12/Vulkan Umsetzung nicht hat und gleichzeitig auch noch Rechenleistung einsparen kann.
Genau deshalb ist DX11 hier auch offensichtlich fehl am Platz.
 
Wadenbeisser schrieb:
Das nat nichts mit Spekulation zu tuen denn es ist bekannt das DX11 ein ziemliches Problem mit der Lastverteilung hat, Stichwort Hauptthread.
Das ist doch alles bekannt, aber es hängt von der Anzahl der Draw Calls ab, wann DX11 zum Bottleneck wird. Man kann auch mit DX11 Renderloops bauen, die über 1000fps machen. Auch wenn man den FurMark auf DX12 umstellt gewinnt man nichts. Wenn im Flusi z.B. die Simulation der Aerodynamik des Jumbo nicht mehr als 50mal pro Sekunde berechnet wird, dann produziert hier der DX12 Renderer keinen einzigen zusätzlichen Frame, da der Renderer mit dem Simulationsthread synchronisiert ist.
 
Mcr-King schrieb:
Nein außer die Titan ist mehr oder weniger so ein Hybrid damit man was gegen die R VII hatte grade was intger angeht.

Bin mir gerade nicht sicher von was du redest. Ich redete davon, ob der A100 auch zwischen INT32 und FP32 wechseln kann oder ob es da noch statisch ist.

Teralios schrieb:
Ich hab den bekannten gefragt, ob er mir mal 20 - 30 Min freischaufeln kann auf dem Cluster, und dass ich dann mal das absenden kann, ob man 2 * FP Vektoren auf das Ding los lassen kann in die SM und ob er dann 1 Takt oder 2 Takte braucht.


Melde dich wenn du es getestet hast!
 
@Nolag

Dir ist aber schon klar das DX12 ein vielfaches an Drawcalls im Vergleich zu DX11 ermöglicht?
Als Anschauungsbeispiel einfach mal den API Test vom 3Dmark laufen lassen und staunen.....
Offensichtlich hast du aber nicht den Test des Spiels angeschaut denn konstante 50 FPS würden wohl niemanden stören, beim CPU Test ging es aber um unter 20 min. FPS beim schnellsten getesteten Prozessor.
 
Zuletzt bearbeitet von einem Moderator: (zweites DX12 zu DX11)
  • Gefällt mir
Reaktionen: Mcr-King
Kacha schrieb:
Das hatten wir doch schon... Das einzige was ermoeglich wurde ist die INT32 Einheit auch fuer FP32 zu verwenden. Allerdings eben nur das eine ODER das andere. Peak FP32 ist somit nicht konstant.
Peak FP ist konstant, wenn Du die ALUs nur mit FP beschickst.
Und es ist egal, ob FP/INT oder nur FP. Sobald Du die Möglichkeit hast, das ganze doppelt zu beschicken, ist es eine Verdoppelung der Einheiten, welche diesen Workload abarbeiten können.
Jetzt, nachdem Jahrzehnte der GPUs mit mixed Workloads und Kontextswitchen eines Entweder- Oder einhergegangen sind, mit dem Finger darauf zu zeigen, obwohl es in diesem Fall noch nicht mal ein vollständiges Entweder und oder ist, verweigert ein wenig die Realitäten.

Dann kannst du dafuer ganz sicher den exakten Wortlaut oder Stelle angeben.
Ja- Schau Dir das Reddit Q&A an. Das hat ja jetzt wirklich oft genug die Runde gemacht.

Was? Wie kommst du bitte darauf?
Programmier eine DX12/DXR kompatible Anwendung, dann siehst Du es.

Ich wiederhole mich: Was? Wie kommst du bitte darauf?
Siehe oben. Solche "Such den Ball"- Spiele kann man gern mit jemand anderem treiben.

Es geht um die Auslastung der Einheiten, welche Einheit was berechnet und welche Berechnungen zu welcher Zeit durchgefuehrt werden.
Und wo genau siehst Du jetzt das Problem eine Int- Berechnung zu erkennen und dann zuzuteilen?
Womöglich einem SM, der eh schon mit Int belegt ist?

Hat man keine fixen INT32 Einheiten oder will die Auslastung maximieren hat man natuerlich ein Optimierungsproblem und Nvidia hat gerade die Menge der Variablen erhoeht. Natuerlich wird das komplexer und damit schwieriger zu loesen.
Es gibt nichts einfacheres, als eine Erkennung auf Treiberebene einzubauen, dass wenn wir ganzzahlig rechnen, das auch auf einen entsprechenden SM zu legen.

War er das? Oder ist das nur der 2% Imageschaden in Techforen? Wieviele Kaeufer bekommen das wirklich mit ausserhalb dieser Blase? Bei Intel haben es ein paar mehr mitbekommen, aber finanziell viel ausgemacht hat es im Endeffekt auch nicht.
Natürlich nicht, weil die Technischen Rahmendaten rein garnichts an den bis dahin schon erschienenen Leistungstests rütteln konnten. Und die bescheinigeten der Karte nunmal eine überlegene Preis-/Leistung.

Der logistische Aufwand und der Schadensersatz sind Peanuts gegenueber dem Gewinn. Vor allem weil nur ein Bruchteil wirklich den Ersatz einfordert.
Du musst es ja wissen.

In der Tat, bei Nvidia interessiert das wirklich niemanden. Da wird es hingenommen und mit "Leistungsplus" abgetan.
Aha - Also doch eine Markendiskussion?

Bloss das es selbst dann angekreidet wurde als die Leistung passte. Aber gut, ist ok.
Das Bessere ist des Guten Feind. Und danach geht einfach die Mehrheit.

In der Techpresse oder beim normalen Kaeufer? Letzterer zaehlt letztendlich.
Genau - Und letzterer hat den Aufstand geprobt.

Stellst du das jetzt als Falschaussage hin? Denn vorhin hast du es noch verteidigt.
Nein- Du stellst es als Falschaussage hin.
Nur ist es einfach so, dass wenn ich statt einer FP32 nun zwei FP32 nutzen kann, dann habe ich die Anzahl an FP32 fähigen Einheiten verdoppelt.

Dir ist aber schon klar, dass das gezieltes Marketing ist, oder? Nichts davon ist bisher ueberpruefbar und natuerlich soll es dazu verleiten das Produkt zu kaufen.
Dir ist schon klar, dass wenn sich die Zahlen anhand der Beispiele nicht reproduzieren lassen sofort der Vorwurf von false advertising im Raum steht?
Die ist auch klar, dass dann die Reputation einer inzwischen geachteten Tech- Publikation im Eimer ist?
Glaubst Du wirklich, dass sie das respektive der Leistung, die hier im Raum steht riskieren oder nötig haben?

Im Idealfall ja, im worst case, nein. Das heisst aber noch lange nicht, dass sich die FP32 Einheiten verdoppelt haben. Es heisst schlichtweg, dass die INT32 Einheiten AUCH FP32 berechnen koennen.
Jetzt kommst Du aber ganz schön in den Blödsinn... Wie nennt man es denn, wenn jetzt statt einer Einheit XY berechnen kann, das ganze nun zwei Einheiten berechnen können?

Man hat die doppelte FP32 Leistung schlichtweg nicht zu jedem Zeitpunkt. Deswegen macht es auch keinen Sinn zu behaupten die doppelte Anzahl an Einheiten waere vorhanden.
Wenn die Schaltung vorhanden ist und die Leistung programmiertechnisch abrufbar ist, so ist die Lage eindeutig. Da kannst Du Dich noch so sehr in Definitionsklimmzügen üben.

Der simple Gegenbeweis ist die Karte mit INT32 zu bombardieren.
Und auch dazu legt nvidia seine Zahlen offen und macht überhaupt kein geheimnis draus, dass die Anzahl der Int- Einheiten gleich bleibt. Warum auch, wenn vorher die Einheiten oftmals unausgelastet waren...

Ich mag Innovationen auch, keine Frage. Aber selbst da kann man zwischen der Idee und der Umsetzung unterscheiden. Wenn allerdings die Umsetzung gut sein muss, bloss weil man die Idee mag gibt es ein Problem. Raytracing kann toll sein, Nvidias Umsetzung finde ich technisch eher meh.
Dann ist das halt so.
Nur solltest Du bedenken, dass es wenigstens überhaupt eine Umsetzung ist, die lange Zeit undenkbar war und mit Ampere in die breit nutzbare Phase übergeht.
Für eine Technik, die Du meh findest, doch ganz respektabel....

Naja, das gilt sowohl fuer die Kritiker, als auch die Fans.
So ist es- Leider!

Naja, nur wenn die Bereitschaft besteht die Meinung auch zu aendern.
Die besteht bei den meisten. Wenn nicht akut im offenen Forum dann oftmals doch vielleicht nach der Hitze des Gefechts oder PN. Da wurde ich schon oft angenehm überrascht.

Neutral geben und neutral sein ist ein Unterschied. Zweiteres ist positiv, ersteres naja.
Ersteres ist zumindest ein Versuch die Perspektiven zu wechseln und mehr, als das was man sich von vielen Mitdiskutanten hier erhoffen kann.

Fortbildungsbereich... Ich wuerde das eher spielen nennen. :D
Mach eine Ausbildung im CAD/CAM- Bereich. Dann gibts Förderung- Auch seitens nvidia.

Gibt es die Programme fuer Privatpersonen? Das einzige das ich kenne sind fuer Institutionen.
Sowohl, als auch. Du musst halt Deinen Hintergrund stimmig darstellen können.

Was kannibalisieren sie denn? Die alte Titan? Das wuerde ich eher Fortschritt nennen wenn man mal fuer mehr Leistung nicht immer nur mehr bezahlt. Mal davon abgesehen, dass es wohl doch noch eine neue Titan geben wird, da die 3090 wohl doch nicht der Vollausbau ist.
Über einen Titan lachen die... Die kannibalisieren sich die Quadros! Also da, wo tatsächlich das Geld gemacht wird. Sie haben sogar die Studio- Treiber für die Consumer- Karten freigegeben...
Vielleicht können die Spieler nicht begreifen, was da gerade passiert. Im Semiprofessionellen Bereich und darüber hinaus steht gerade kein Stein mehr auf dem anderen.

Naja, was er da redet ist doch normal im Techbereich. AMD hat das gleiche mit Su ja auch. Intel, gut ok... Wenn man nicht eine aehnliche Einstellung wie er hat in dem Bereich, dann sollte man vielleicht doch eher Autos bauen. Der musste sein.
:) 100% ACK

Lass uns doch auf den Release von Ampere warten.

Ich dreh das Ding dann eh im Visual Studio durch die Mangel. Ich muss das Ding dann sowieso bezüglich unseres Titels komplett durchnudeln.
Ich versprech Dir, dass ich der erste bin, der hier öffentlich schimpft, wenn das mit der automatischen oder manuellen Verteilung INT/FP nicht ordentlich klappen sollte, oder ich anderen Mist entdecken sollte.

Auch, wenn sich die 60%+ im Schnitt, die sich überall abzeichnen, nicht bewahrheiten sollten.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Auch das stimmt so nicht wirklich denn wenn die CPU bei beiden wirklich ausgelastet ist fällt der Geforce der Treiber Overhead durch das Multicore Workaround wieder auf die Füße.

Also liegen AMD CPUs in Spielen hinter den Intel CPUs, weil der böse Nvidia Treiber reinpfuscht.^^
Okay, sehr kreativ. :D
Und wenn die AMD GPU langsamer ist als die 3080 oder 3090 liegt der Fehler dann bei den CPUs?
Ok ich glaub das Thema können wir uns schenken, gewisse Dinge möchtest du nicht einräumen, ist doch ok, aber nächstes mal halt vorher sagen, bevor man tendenziösen Kram schreibt.

Kacha schrieb:
Wenn allerdings die Umsetzung gut sein muss, bloss weil man die Idee mag gibt es ein Problem. Raytracing kann toll sein, Nvidias Umsetzung finde ich technisch eher meh.

Langsam merkt man hier woher der Wind weht, gut Nacht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: gr1nd
Zurück
Oben