Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

monitorhero schrieb:
Hier spekuliert Jay, dass sich AMD CPUs als Bottleneck erweisen könnten.
AMDs CPUs wohl weniger als vielmehr der fehlende Multicore Workaround von nvidia für die typischen DX11 Multicore Gurken.
Damit sind die Karten eben nichts für super duper high FPS Gamer weil das Spiel bei der Lastverteilung versagt und diese nicht vom Treiber zumindest teilweise abgenommen wird. Fürs Spiele bei UHD und Co. dürfte das wegen der Schwerpunktverlagerung der Rechenlast hin zur GPU wiederum kaum eine Rolle spielen.

Aber auch dieses Thema würde ich gerade jetzt in Zeiten von nvidias Schwerpunkt Verlagerung zum Thema RT nicht überbewerten denn damit sind auch sie gezwungen auf die neueren, effizienteren APIs zu setzen die die Kerne der CPUs effektiver auslasten können.
 
  • Gefällt mir
Reaktionen: Mcr-King und monitorhero
snickii schrieb:
Würde auch gern auf pcie 4 gehen aber ich würde wegen Streaming dann vom 2600 auf 3900x gehen... und das lohnt nicht so richtig wegen Zen 3
dann hol dir doch den normalen 3600 und ein b550 mainboard, ganz ehrlich den kaufst du jetzt für 170 und verkaufst den locker noch für 130+ danach. so habe ich es gemacht und außerdem kriege ich ja auch noch besseres geld für mein 7700k + Mainboard als in einem halben Jahr.
 
Taxxor schrieb:
Unnötig langes Zitat durch Moderation entfernt
Vielen Dank für die Erklärung. Das macht nun viel mehr Sinn :)
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderation entfernt)
  • Gefällt mir
Reaktionen: Taxxor und .Sentinel.
@monitorhero
Taxxor hat das schon schön erklärt.
Die Sache ist die, dass Du bei einem CPU Test rausfinden willst, wieviele FPS diese unabhängig einer Grafikkarte liefern kann, die im System verbaut ist.

Diese Information ist genau jetzt wichtig. Wenn Du Dir eine neue Grafikkarte einbaust, die deutlich leistungsfähiger ist, weisst Du nämlich ohne entsprechende Information nicht, was Deine CPU maximal leisten kann bzw. ob diese ausreichend für die neue Grafikkarte sein wird.

Die, die also immer danach rufen, dass man CPU Tests in vermeintlich praxisgerechten Auflösungen durchführen sollen, haben jetzt genau das Informationsdefizit was diejenigen, die diese Tests kritisieren, immer anprangern.

CPU Tests, in welchen die Leistung der verbauten GPU eine Rolle spielt, sind schlichtweg sinnlos, weil man eben nicht die Leistung der CPU misst, sondern anteilig das, was die Grafikkarte dahinter leistet.
Wechselt man diese, kann man die Zahlen und den Test in die Tonne treten.

Testet man nur die CPU haben die Werte für alle folgenden GPU- Generationen Gültigkeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Exar_Kun und Taxxor
Taxxor schrieb:
Wenn du eine CPU jetzt in 1080p mit einer 2080Ti testest, kann es in einigen Spielen passieren, dass du auch in 1080 mit der 2080Ti im GPU Limit liegst und daher nicht weißt, wie viel mehr FPS die CPU noch hätte bringen können.
Die neuen Ergebnisse beim 1080p Test mit einer 3080/3090 könnten Intel dann noch einige zusätzliche Verkäufe des 10900k bescheren. Die AMD freundlichen Tester könnten sich dann entscheiden zukünftig 1440p für die CPU Tests zu verwenden, mit der Begründung, dass die Zeit des FullHD gamings ja nun vorbei ist.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Nolag schrieb:
Die neuen Ergebnisse beim 1080p Test mit einer 3080/3090 könnten Intel dann noch einige zusätzliche Verkäufe des 10900k bescheren.
Zumindest bis im Oktober dann Ryzen 4000 kommt^^
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Mcr-King und Nolag
Taxxor schrieb:
Die einfache Lösung ist: Auflösung reduzieren, die GPU mehr FPS liefern lassen und schauen ob die CPU noch genau so weit mitgeht.
Das ist wieder zu einfach. :D
Zuerst werden erstmal die GPU lastigen Grafik Details auf ein Minimum runtergeschraubt und wenn sich da was großartig an den FPS ändert ist erst dann ist Auflösung dran, vor allem bei den Geforce Karten wo ein größerer Teil des Verwaltungsaufwandes auf die CPU ausgelagert wurde. (z.B. Multicore Workaround)
Den Radeons scheint beim CPU Limit die Auflösung weitestgehend egal zu sein, den Geforce Karten wiederum nicht aber das fällt meist erst dann auf wenn wie CPU wirklich ausgelastet ist, mit allen Kernen/Threads auf 100% läuft und die Framerate mit steigender Auflösung zurück geht wo die Radeon im gleichen Szenario recht konstant bleibt denn für die CPU Auslastung an sich interessiert sich im sogenannten CPU Limit ohnehin keiner sondern nur wer schneller ist.
Ergänzung ()

Nolag schrieb:
Einen DX12 Renderer hätte es sicherlich für den Release auf den alten Konsolen mit der schwachen CPU gebraucht. Vermutlich ist die Performance auf PC und Series X eh meistens durch die Shader limitiert, weshalb der Nutzen von DX12 dann gering wäre.
man sieht leider schon beim Test dass das Spiel massiv im CPU Limit hängt und fast nur über den Takt, IPC Steigerungen der CPU usw. skaliert. Vermutlich könnte selbst ein auf +5GHz übertakteter Intel Core i3-10300 den 10 Kerner schlagen, sofern sich diese überhaupt entsprechend übertakten lassen.
Leider kenne ich aber keinen Test der die Kern Skalierung des Spiels mal unter die Lupe nimmt.
In sofern könnte ein vernünftiger DX12 Renderer aus mehrfacher Hinsicht einen Performance Boost geben denn zum einen könnte man mehr Kerne nutzen die dann auch noch effizienter genutzt werden könnten. Wenn man Pech hat kann es aber auch auf eine schrottige Portierung auf DX12 hinauslaufen die noch schlechter läuft, sowas hatten ja schon genug Spiele.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
monitorhero schrieb:
Hier spekuliert Jay, dass sich AMD CPUs als Bottleneck erweisen könnten.

Kann ich überhaupt nicht nachvollziehen. Der Jay ist mir ohnehin ein wenig zu grün gefärbt in vielen Themen.
Da find ich HWU weitaus neutraler.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Benji18 und Mcr-King
Wadenbeisser schrieb:
man sieht leider schon beim Test dass das Spiel massiv im CPU Limit hängt und fast nur über den Takt, IPC Steigerungen der CPU usw. skaliert.
Die Formulierung klingt so, als würde man immer das CPU Limit erreichen, was natürlich nicht stimmt. Natürlich könnte man das CPU-Limit bei maximalen Geometrieeinstellungen mit einem DX12 Renderer nach ober verschieben, aber das Game hat so viele shaderlastige Features, das man erst die maximieren sollte. Klar kann man die Einstellungen so wählen, dass man bei deutlich unter 60fps auf das CPU Limit trifft, aber mir ist die visuelle Qualität wichtiger als hohe Frameraten und ich bin laut der internen FPS Anzeige praktisch permanent im GPU Limit bei 30-45fps, was für den Flusi völlig ausreichend ist.
 
  • Gefällt mir
Reaktionen: Cyberbernd
Rock Lee schrieb:
Kann ich überhaupt nicht nachvollziehen. Der Jay ist mir ohnehin ein wenig zu grün gefärbt in vielen Themen.
Da find ich HWU weitaus neutraler.
Jay hat auch einfach keine Ahnung. Der Kerl baut schöne Systeme mit Wasserkühlung - das wars aber auch.
 
  • Gefällt mir
Reaktionen: Benji18, Mcr-King und Rock Lee
@Nolag

Es ist ziemlich egal ob was shaderlastig ist oder nicht ist ziemlich egal wenn es nicht hinreichend mt Daten zur Bearbeitung versorgt werden kann und das ist nunmal der fall wenn die Framerate kaum bis garnicht mit schnelleren Grafikkarten skaliert. Skaliert es dann auch nicht mit der Kernzahl der CPU ist es ein Multicore Krüppel der verfügbare Rechenleistung verschenkt, um so ärgerlicher wenn die Framerate dann dadurch so weit in den Keller rutscht. Das Abschalten von Details ist dann nur eine Krücke um die Auswirkungen des Problems zu mindern.

Eines scheinst du auch nicht verstanden haben wenn es um das CPU Limit geht, die gerenderte Szene ist nicht statisch und damit auch nicht ihr Ressourcenbedarf. Erfordert die aktuell gerenderte Szene davon weniger als eine andere schiebt sich die Framerate nach oben, skaliert das Spiel an der Stelle dennoch nicht oder unzureichend mit schnelleren Grafikkarten ändert das am CPU Limit des Spiels herzlich wenig. Hier hilft dann nur mehr von und effektiver die limitierenden Ressorcen zu nutzen.
 
  • Gefällt mir
Reaktionen: Mcr-King
sifusanders schrieb:
Jay hat auch einfach keine Ahnung. Der Kerl baut schöne Systeme mit Wasserkühlung - das wars aber auch.
Ist auch mehr Unterhaltung sein Channel. Für gute Recherche geht man zu GamersNexus
 
  • Gefällt mir
Reaktionen: sifusanders
Zwei Dinge geschehen hier meiner Meinung nach:

1. Entweder wird Big Navi richtig gut.
oder
2. NVidia ist sich derart sicher, AMD mit den 3xxx Karten Anteile abzunehmen, dass die Preise dieses Mal "relativ" moderat ausfallen können, da sehr hohe Stückzahlen erwartet werden.

Oder Beides und Nvidia sieht sich am Markt entsprechend fest im Sattel, dass es selbst ein starkes Big Navi Ensemble nicht fürchten muss?
Wer weiß. AMD sollte nun schnell mit Details kommen, sonst sind die Kaufentscheidungen getroffen.
 
  • Gefällt mir
Reaktionen: Mcr-King
.Sentinel. schrieb:
Testet man nur die CPU haben die Werte für alle folgenden GPU- Generationen Gültigkeit.
Kann man so nicht schreiben, weil es zu pauschal ist und gerade heute wird es mit solch "synthetischen" Workloads immer schwerer wirklich Aussage für folgende Generationen zu treffen.

Aus solchen Tests kann man nämlich Aussagen in drei Richtungen ableiten: CPU, Infrastruktur(Hardware), Infrastruktur(Software) sowie die Software selbst. Und genau das ist auch primäre Probleme mit solchen Tests.

Richtig problematisch wird es dann, wenn man versucht aus mehrerer solcher Tests eine generalisierte Aussage zu treffen, weil man dann in der Regel zu viele mögliche Aussagen unter einem Hut vermischt.

Tests im absoluten CPU-Limit treffen in der Regel zuverlässig nur eine Aussage über das getestete System und wie die Software auf diesem System läuft. Versucht man so etwas dann zu generalisieren oder gar Aussagen über die Zukunft treffen, landet mal oft schneller auf dem Boden, als einem lieb ist. Zu schnell kann sich etwas verändern.

hurga_gonzales schrieb:
Wer weiß. AMD sollte nun schnell mit Details kommen, sonst sind die Kaufentscheidungen getroffen.
Die Kaufentscheidungen sind doch eh bereits für die meisten getroffen, die genau jetzt einen Grafikkarte kaufen wollen. Und die, die warten wollen, die werden auch noch warten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Man merkt auch einfach, was man selbst für ein verwöhntes Miststück ist. Nachdem ich die 2080Ti nicht mehr habe, bin ich wieder auf meiner 1660 Super, die ich seitdem ich ein AMD System besitze als GPU Ersatz nehme.

Unglaublich wie gigantisch der Unterschied (nicht nur im Preis) zwischen einer 1660 Super und 2080Ti in der Praxis ist.

Bei BF5 bedeutet das, dass ich statt 3440x1440P und Ultra Preset (bis auf Mesh und Terrain Quality) mit der 2080Ti bei 150-170FPS gelandet bin.

Bei identischen Settings liegt die 1660 Super noch bei 40-60 FPS und damit macht BF5 keinen Spaß. Es ist spielbar, aber das Recoil ist komplett anders und man kann dank der Drops einfach oben nicht mithalten.

Wenn ich die gleiche Leistung will wie mit der 2080Ti, muss ich die Auflösung auf 2560x1440 reduzieren und dann zusätzlich von da aus nochmal die Skalierung auf 75% runter-drücken. Damit sieht das Spiel richtig matschig aus, läuft aber mit 150+ FPS und lässt mich wenigstens ordentlich aimen ^^.

Ich bin gespannt wie dann der Sprung wieder auf das Monster ausfällt. Hier sollte man ordentlich ins CPU Limit laufen.

Für FS2020 sehe ich aufgrund der total schlecht optimierten Engine kaum Potential für Verbesserung. Am Boden limitiert selbst mit einer 1660 Super die CPU. Absolut lachhaft wenn man bedenkt, dass man 16 Kerne und 32 Threads hat.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Mcr-King
gr1nd schrieb:
Hast du Teams jemals benutzt? Ich muss es täglich nutzen und das ist in keiner Weise mit dem hier gezeigten vergleichbar. Setze doch einfach mal einen anderen BG in Teams, setze dir Kopfhörer auf und schau dir die Bereiche zwischen Kopfhörerbügel und Kopf an. Man sieht in einem Bruchteil einer Sekunde, dass der BG fake ist. Das ist bei dem Nvidia Teil hier nicht so. Dass das keine Rocket Science, steht außer Frage, aber ausgerechnet Teams damit zu vergleichen?

Habe ich, ja, deswegen nenne ich es auch. Ich sage es mal so, koennte Teams wenn Microsoft wollte das erreichen was Nvidia praesentiert hat? Auf jeden Fall. Wollen sie das? Nein, denn es muss auf der letzten Gurke an Rechner laufen und nicht erst wenn man ein paar hundert Euro fuer eine dedizierte Grafikkarte auf den Tisch legt. Und ganz ehrlich, dafuer, dass Teams auf der letzten Gurke laeuft und Nvidias Loesung nicht, ist Nvidias Loesung ziemlich schwach.

xexex schrieb:
Dann sollte AMD mal ganz schnell diesen Jobber einstellen! RTX Voice ist so mit das Interessanteste was in den letzten Jahren in diesem Bereich vorgestellt wurde und wenn ich da an meine aktive MMO Zeit zurückdenke absolut goldwert!

Kann man so sehen, muss man aber nicht. Es ist eine Spielerei um ein paar "Gamern" Vorteile zu praesentieren. Ironischerweise wurde es bei Vorstellung fuer den professionellen Einsatz angepriesen. Dass da keine dedizierten GPUs zum Einsatz kommen hat man wohl vergessen.

xexex schrieb:
Dazu sage ich nur, nichts was WhatsApp kann ist neu oder irgendwie spannend. Alles was man damit machen kann, konnte man schon vorher mit SMS, Mail oder Skype. Seltsam wie diese App trotzdem auf Milliarden von Smartphones gelandet ist oder?

Mal abgesehen davon, dass SMS und Mail eben nicht alles von WhatsApp abdecken und nur Skype einigermassen passt ist letzteres eben auch von der Usability auf dem Smartphone nur so lala gewesen am Anfang. Vom Stromverbrauch mal komplett abgesehen.

.Sentinel. schrieb:
Wieso magisch, wenn Du entsprechende Einheiten einfach verdoppelst? Die sind in Hardware vorhanden und können dediziert angesprochen werden.

Wie schon @Colindo erwaehnt, nein. Es wurde nichts verdoppelt, sondern die INT Einheiten wurden schlichtweg faehig auch FP auszufuehren, mehr nicht. Also das, was AMD schon seit Ewigkeiten macht. Ausser, dass bei AMD jede Einheit das kann.

.Sentinel. schrieb:
Auch die Möglichkeit eines Mixes innerhalb der verschiedenen Cluster.

Das ist noch nicht geklaert. Das erwaehnt auch @Teralios. Kann gut sein, dass das eben nicht moeglich ist um nach aussen hin ein einfacheres Interface zu haben. Ist es zu komplex kann es den Durchsatz verringern durch den Overhead, was bisher immer bei AMD angekreidet wurde.

.Sentinel. schrieb:
Das erledigen aber die RT- Cores (wie Teralios schon schön erwähnt hat - Suchalgorithmen)
Die Shaderstages erfolgen wieder überwiegend FP32.

Das ist auch noch nicht gesichert. Und was @Teralios erwaehnt ist, dass Suchen allgemein INT benoetigt, er spricht nicht davon, dass das auf den RT Cores erfolgt. Es war schlichtweg ein Beispiel wofuer man INT und nicht FP benoetigt.

.Sentinel. schrieb:
Genau- Wobei zu beachten ist, dass Du keinen Titel finden wirst, wo die Int- Last überwiegt.

Bitte bei dem bleiben was ich sage. Davon habe ich nicht gesprochen. Was ich sagte ist schlichtweg, dass die INT Last sich unterscheidet.

.Sentinel. schrieb:
Genau- Deswegen sicherheitshalber gleich mal alles verneinen und den Teufel an die Wand malen?

Nein, aber sein Hirn nutzen. Es ist nun wahrlich keine neu Erkenntnis, dass Schedulingaufwand sehr schnell steigt wenn die Komplexitaet steigt. Das ist nicht nur beim Scheduling so, dafuer gibt es in der theoretischen Informatik sogar einen komplett eigenen Bereich. Ab einem gewissen Grad machen nur noch Heuristiken Sinn, aber die haben natuerlich immer den Nachteil, dass man nicht das Optimum erreicht.

.Sentinel. schrieb:
Du kannst aber ein Produkt auch nicht zu gut dastehen lassen, da einen die Realtität innerhalb kurzer Zeit einholt und das dann einen Image- und Glaubwürdigkeitsschaden nach sich zieht.

Bist du dir da sicher? Was erst einmal haengen bleibt ist der erste Eindruck und den wieder rauszubekommen dauert. Bis es zu einem Image- oder Glaubwuerdigkeitsschaden kommt muss einiges passieren. Zumal, was interessiert es wenn fuenf Hansel ihre Meinung aendern?

Sowohl Nvidia als auch Intel waren doch super Beispiele in den letzten Jahren. Nvidia mit seiner 970, wen hat das gross interessiert? 2% der Kaeufer? Oder jetzt der Verbrauch ueber 300W, wen interessiert es gross? Das wurde bei AMD ueber Jahre angekreidet, jetzt ist es ok.
Intel mit Meltdown und Spectre, was war der grosse Schaden? Die "informierten" Gamer kaufen froehlich weiter weil Intel ist ja der beste in Spielen. Sicherheit? Was ist das.

.Sentinel. schrieb:
Du kannst im Vorfeld nicht machen, was Du willst, oder Du wirst virtuell gesteinigt. Siehe Ubisoft Watchdog- Downgrade & co.

Naja... wie gross war der "Shitstorm" und wie gut hat es sich dann doch verkauft? Nur weil ein paar laut sind heisst das noch lange nicht, dass es viele sind.

.Sentinel. schrieb:
Das ist schon klar. Nur ist auch klar, dass wenn Du in den heutigen Zeiten nicht ganz genau prüfst, was Du da schreibst, die Sammelklage in den USA inkl. Schadensersatz nicht lange auf sich warten lassen.

Naja... Dazu musst du aber gezielt Falschaussagen machen, ansonsten hat das vor keinen Gericht eine Chance. Und der Schadensersatz wird aus der Portokasse bezahlt die man mit dem Gewinn aus dem Produkt erzieht.

.Sentinel. schrieb:
Und das ist noch das Geringste. Stellst Du das Produkt in deutlich besserem Licht dar, als es dann tatsächlich liefert, hast Du die netten Herren von der Börsenaufsicht auf dem Parkett. Und die fackeln nicht lange, wenn der Verdacht auf Kursmanipulation im Raum steht.

Und dazu muss nachgewiesen werden, dass Kursmanipulation das Ziel war. Das passiert auch seltener als es sein koennte. Und "nur" ein Produkt zu gut darzustellen ist da doch etwas schwach.

.Sentinel. schrieb:
Das sowieso. Da bin ich zu 100% bei Dir.

Danke, denn im Launchthread wurde es als "unabhaengiger Beweis" gefuehrt fuer die Leistung von Ampere. Das war aber schlichtweg nur das was man als Influencer versteht mit strikten Vorgaben von Nvidia. Unabhaengig war da wenig.

.Sentinel. schrieb:
Nachdem mir im Radeon VII Thread mehrfach unterstellt wurde, dass ich von den Roten gekauft sei, denke ich, dass wir das Verschieben dieser Diskussion auf ein Niveau welches uns beiden nicht gefällt, getrost lassen können. Bei Markenkriegsdiskussionen ist mein Geduldsfaden inzwischen extrem kurz.

Das ist schoen, aber in dem Fall wirkt es dann doch etwas bizarr wie du hier im Thread teilweise verteidigst. Zum Beispiel das mit der Veropplung der FP32 Einheiten, das war halt faktisch falsch was du gesagt hast. Vielleicht beim naechsten mal zweimal lesen? Duerfte uns beiden helfen.

.Sentinel. schrieb:
Nein- Aber einige Beiträge sind so fast schon "langweilig" tendenziös verfasst, dass ich mir beim Lesen immer wieder die Frage stelle, was der Urheber damit eigentlich bezwecken will.

Klar gibt es die, aber man kann Beitraege halt auch gern falsch verstehen wenn man selber nicht ganz unvoreingenommen ist. Deswegen sollte zusaetzlich zur Frage was der Urheber bezwecken will noch dazu gefragt werden ob man gerade selber das ganze so objektiv wie moeglich bewertet.

.Sentinel. schrieb:
Das sind mir die liebste Gruppe. Und wenn man mit dieser einen angeregten Diskurs führt, kommt immer ein Sammelsurium an interessanter Information raus. - Daraus erwächst ja meistens auch eher ein Miteinander als ein Gegeneinander. Eben weil man eben weiß, dass man das Produkt noch nicht in den Händen hält, kann man herrlich innerhalb der bekannten Parameter spekulieren.

Das ist auch angenehm, problematisch wird es nur, wenn jemand dann wieder ueberzeugt ist, dass seine Meinung die richtige ist. Da geben sich teilweise Leute "neutral" obwohl sie es gar nicht sind. Oder es sind nicht genug Informationen gelesen worden. Das wird schnell frustrierend.

.Sentinel. schrieb:
Macht doch nicht immer gleich so eine persönliche und pathetische Sache draus. Es geht um ne neue Grafikkarte. Ein nettes Hobby für die meisten, sonst nix.

Gerne doch, das sollten sich einige zu Herzen nehmen.

Bzw. ueberlege ich mir auch ob ich Nvidia kaufe oder nicht. Der einzige Grund den ich allerdings habe ist Machine Learning. Und dafuer sind die 3070 und 3080 halt ein schlechter Witz mit ihrer VRAM Bestueckung. Allerdings sind 1500 dann eine komplett andere Hausnummer. Meine 1080Ti habe ich auch nur wegen Machine Learning gekauft und der VRAM ist ziemlich schnell weg. Da bringt mir halt Leistung wenig, wenn ich sie nicht nutzen kann. 24GB waeren toll, aber der Preis... In dem Bereich ist AMD auch so eine Sache. Der Support bei Tensorflow ist nicht wirklich vorhanden, ausser durch einen Fork von AMD, der in Beta ist.

aldaric schrieb:
Ob RTX am Ende nicht auch nur ein billiger Passfilter ist? nVidia hat ja bei der Vorstellung steif und fest behauptet das die Tensor Cores dafür benutzt werden und das ganze über Deep Learning läuft.

Naja, was genau das Neural Net erlernt ist so eine Sache. Kann durchaus sein, dass es eine Funktion erlernt die einem Passfilter sehr aehnelt. Das ist nicht ausgeschlossen.

aldaric schrieb:
Die Frage dürfte wohl eher sein, warum läuft der Filter über Umwegen auch auf 1000er Karten, die keine Tensor-Cores besitzen ?

Naja, du kannst solche Netze immer auf normalen Shadern laufen lassen. So wie man auch neuronale Netze darauf trainieren kann. Dazu braucht es keine Tensor Cores. Die koennen nur spezielle Funktionen schneller. Interference kannst du auch auf der CPU laufen lassen wenn du willst. Das ist nicht das was Leistung braucht, das Training ist es.

Lars_SHG schrieb:
Davon ab, mit vermuteten 5120 Shadern bei Big-Navi hätte bei Deiner Vermutung AMD keine Chance denn "Big-Ampere" hat 10.496 und die 3080 immer noch 8704.

Bitte lies den Artikel nochmal. Die Aussage ist einfach falsch. Nvidia hat immer noch nur 5248 und 4352, das einzige was Nvidia jetzt kann ist die INT Einheiten auch fuer FP32 nutzen. Allerdings mit der Einschraenkung INT ODER FP32, nicht gleichzeitig. Das kann AMD schon lange.

FreedomOfSpeech schrieb:
@.Sentinel.
Schaut für mich aus wie 64+64 und nicht wie 128+64.

Sind es auch. 64 FP32 und 64 INT ODER 64 FP32. Nvidias Marketing mit der Verdopplung an CUDA Cores suggeriert aber halt was anderes. Die wissen schon was sie tun.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Teralios schrieb:
Die Kaufentscheidungen sind doch eh bereits für die meisten getroffen, die genau jetzt einen Grafikkarte kaufen wollen.

Ganz ehrlich? Hätte AMD nicht Nvidia mit einem Satz nur zum Launch gratuliert, sondern in einem Beisatz noch ein "Wir freuen uns schon auf ein Kräftemessen im Winter" erwähnt. Würden einige ihre Entscheidung eine RTX3000 Karte direkt beim Launch zu kaufen noch überdenken.

So ist keine Antwort auch eine Antwort und erinnert an Sony, die dann gefühlt noch nachdem Microsoft die Specs der Series X öffentlich gemacht hat, an dem Takt geschraubt und die Präsentation um die schnellere SSD herum aufgebaut haben, um vor der schlechteren Leistung abzulenken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, KlaraElfer, legenddiaz und 2 andere
tochan01 schrieb:
Auch wenn es kaum noch einer nutzt aber sli nur für die 3090 ist doch kacke. Es darf wohl keiner sehen, dass 2 kleine gpus die dicke in die Tasche stecken..

Imho. kackt man inzwischen nicht mehr AMD oder NV an sondern entwickler die meinen ineffizent code rauszudrücken.
Und für grafik wo DX12 mGPU sinn machen würde diese nicht zu nutzen.

Ansich machte SLI CF eh immer nur mit der dicksten GPU am markt sinn.
mGPU hat IMMER kacke skaliert, da war eine dickere GPU sei es um 100% teurer sinnvoller.

Desweiteren ist CF/SLI inzwischen egal.
Wenn schon mGPU supporten dann gleich DX12 mGPU....wäre mal an der zeit für zumindest trippleA games, wollte schon meine 290 eigentlich als zweit GPU arbeiten lassen.
Die entwickler interessiert es jedoch einen scheiß.:daumen:
 
hurga_gonzales schrieb:
Zwei Dinge geschehen hier meiner Meinung nach:

1. Entweder wird Big Navi richtig gut.
oder
2. NVidia ist sich derart sicher, AMD mit den 3xxx Karten Anteile abzunehmen, dass die Preise dieses Mal "relativ" moderat ausfallen können, da sehr hohe Stückzahlen erwartet werden.

Oder Beides und Nvidia sieht sich am Markt entsprechend fest im Sattel, dass es selbst ein starkes Big Navi Ensemble nicht fürchten muss?
Wer weiß. AMD sollte nun schnell mit Details kommen, sonst sind die Kaufentscheidungen getroffen.

Ich denke da ist etwas zu weit vorweg genommen.
Ich für meinen Teil erwarte eher das nvidia mit Big Navi einen Chip in der Leistungsklasse der 3080 erwartet und den Preis entsprechend tief ansetzt denn das wäre im Rahmen der bisherigen Infos durchaus drin.
Wenn nvidia bereits ca. 80% vom Grafikkartenmarkt beherrscht sehe ich auch keinen allso großen Gewinn durch eine Steigerung der Marktanteile, mit höheren Preisen würde man sicherlich mehr verdienen, erst recht anhand der kostspieligen Komponenten die auf der Karte landen werden denn PCB, Speicher und Kühlsystem dürfte relativ teuer sein und die Gewinnspanne bei dem Verkaufspreis deutlich schmälern. Ich sehe es eher als vorauseilende Maßnahme für den Fall das Big Navi erwartet stark ist und behält deshalb auch das 20 GB Modell ohne Preisangaben noch in der Hinterhand.

Da hilft nur abwarten und Tee trinken. :D
 
  • Gefällt mir
Reaktionen: hurga_gonzales
Zurück
Oben