gr1nd schrieb:
Hast du Teams jemals benutzt? Ich muss es täglich nutzen und das ist in keiner Weise mit dem hier gezeigten vergleichbar. Setze doch einfach mal einen anderen BG in Teams, setze dir Kopfhörer auf und schau dir die Bereiche zwischen Kopfhörerbügel und Kopf an. Man sieht in einem Bruchteil einer Sekunde, dass der BG fake ist. Das ist bei dem Nvidia Teil hier nicht so. Dass das keine Rocket Science, steht außer Frage, aber ausgerechnet Teams damit zu vergleichen?
Habe ich, ja, deswegen nenne ich es auch. Ich sage es mal so, koennte Teams wenn Microsoft wollte das erreichen was Nvidia praesentiert hat? Auf jeden Fall. Wollen sie das? Nein, denn es muss auf der letzten Gurke an Rechner laufen und nicht erst wenn man ein paar hundert Euro fuer eine dedizierte Grafikkarte auf den Tisch legt. Und ganz ehrlich, dafuer, dass Teams auf der letzten Gurke laeuft und Nvidias Loesung nicht, ist Nvidias Loesung ziemlich schwach.
xexex schrieb:
Dann sollte AMD mal ganz schnell diesen Jobber einstellen! RTX Voice ist so mit das Interessanteste was in den letzten Jahren in diesem Bereich vorgestellt wurde und wenn ich da an meine aktive MMO Zeit zurückdenke absolut goldwert!
Kann man so sehen, muss man aber nicht. Es ist eine Spielerei um ein paar "Gamern" Vorteile zu praesentieren. Ironischerweise wurde es bei Vorstellung fuer den professionellen Einsatz angepriesen. Dass da keine dedizierten GPUs zum Einsatz kommen hat man wohl vergessen.
xexex schrieb:
Dazu sage ich nur, nichts was WhatsApp kann ist neu oder irgendwie spannend. Alles was man damit machen kann, konnte man schon vorher mit SMS, Mail oder Skype. Seltsam wie diese App trotzdem auf Milliarden von Smartphones gelandet ist oder?
Mal abgesehen davon, dass SMS und Mail eben nicht alles von WhatsApp abdecken und nur Skype einigermassen passt ist letzteres eben auch von der Usability auf dem Smartphone nur so lala gewesen am Anfang. Vom Stromverbrauch mal komplett abgesehen.
.Sentinel. schrieb:
Wieso magisch, wenn Du entsprechende Einheiten einfach verdoppelst? Die sind in Hardware vorhanden und können dediziert angesprochen werden.
Wie schon
@Colindo erwaehnt, nein. Es wurde nichts verdoppelt, sondern die INT Einheiten wurden schlichtweg faehig auch FP auszufuehren, mehr nicht. Also das, was AMD schon seit Ewigkeiten macht. Ausser, dass bei AMD jede Einheit das kann.
.Sentinel. schrieb:
Auch die Möglichkeit eines Mixes innerhalb der verschiedenen Cluster.
Das ist noch nicht geklaert. Das erwaehnt auch
@Teralios. Kann gut sein, dass das eben nicht moeglich ist um nach aussen hin ein einfacheres Interface zu haben. Ist es zu komplex kann es den Durchsatz verringern durch den Overhead, was bisher immer bei AMD angekreidet wurde.
.Sentinel. schrieb:
Das erledigen aber die RT- Cores (wie Teralios schon schön erwähnt hat - Suchalgorithmen)
Die Shaderstages erfolgen wieder überwiegend FP32.
Das ist auch noch nicht gesichert. Und was
@Teralios erwaehnt ist, dass Suchen allgemein INT benoetigt, er spricht nicht davon, dass das auf den RT Cores erfolgt. Es war schlichtweg ein Beispiel wofuer man INT und nicht FP benoetigt.
.Sentinel. schrieb:
Genau- Wobei zu beachten ist, dass Du keinen Titel finden wirst, wo die Int- Last überwiegt.
Bitte bei dem bleiben was ich sage. Davon habe ich nicht gesprochen. Was ich sagte ist schlichtweg, dass die INT Last sich unterscheidet.
.Sentinel. schrieb:
Genau- Deswegen sicherheitshalber gleich mal alles verneinen und den Teufel an die Wand malen?
Nein, aber sein Hirn nutzen. Es ist nun wahrlich keine neu Erkenntnis, dass Schedulingaufwand sehr schnell steigt wenn die Komplexitaet steigt. Das ist nicht nur beim Scheduling so, dafuer gibt es in der theoretischen Informatik sogar einen komplett eigenen Bereich. Ab einem gewissen Grad machen nur noch Heuristiken Sinn, aber die haben natuerlich immer den Nachteil, dass man nicht das Optimum erreicht.
.Sentinel. schrieb:
Du kannst aber ein Produkt auch nicht zu gut dastehen lassen, da einen die Realtität innerhalb kurzer Zeit einholt und das dann einen Image- und Glaubwürdigkeitsschaden nach sich zieht.
Bist du dir da sicher? Was erst einmal haengen bleibt ist der erste Eindruck und den wieder rauszubekommen dauert. Bis es zu einem Image- oder Glaubwuerdigkeitsschaden kommt muss einiges passieren. Zumal, was interessiert es wenn fuenf Hansel ihre Meinung aendern?
Sowohl Nvidia als auch Intel waren doch super Beispiele in den letzten Jahren. Nvidia mit seiner 970, wen hat das gross interessiert? 2% der Kaeufer? Oder jetzt der Verbrauch ueber 300W, wen interessiert es gross? Das wurde bei AMD ueber Jahre angekreidet, jetzt ist es ok.
Intel mit Meltdown und Spectre, was war der grosse Schaden? Die "informierten" Gamer kaufen froehlich weiter weil Intel ist ja der beste in Spielen. Sicherheit? Was ist das.
.Sentinel. schrieb:
Du kannst im Vorfeld nicht machen, was Du willst, oder Du wirst virtuell gesteinigt. Siehe Ubisoft Watchdog- Downgrade & co.
Naja... wie gross war der "Shitstorm" und wie gut hat es sich dann doch verkauft? Nur weil ein paar laut sind heisst das noch lange nicht, dass es viele sind.
.Sentinel. schrieb:
Das ist schon klar. Nur ist auch klar, dass wenn Du in den heutigen Zeiten nicht ganz genau prüfst, was Du da schreibst, die Sammelklage in den USA inkl. Schadensersatz nicht lange auf sich warten lassen.
Naja... Dazu musst du aber gezielt Falschaussagen machen, ansonsten hat das vor keinen Gericht eine Chance. Und der Schadensersatz wird aus der Portokasse bezahlt die man mit dem Gewinn aus dem Produkt erzieht.
.Sentinel. schrieb:
Und das ist noch das Geringste. Stellst Du das Produkt in deutlich besserem Licht dar, als es dann tatsächlich liefert, hast Du die netten Herren von der Börsenaufsicht auf dem Parkett. Und die fackeln nicht lange, wenn der Verdacht auf Kursmanipulation im Raum steht.
Und dazu muss nachgewiesen werden, dass Kursmanipulation das Ziel war. Das passiert auch seltener als es sein koennte. Und "nur" ein Produkt zu gut darzustellen ist da doch etwas schwach.
.Sentinel. schrieb:
Das sowieso. Da bin ich zu 100% bei Dir.
Danke, denn im Launchthread wurde es als "unabhaengiger Beweis" gefuehrt fuer die Leistung von Ampere. Das war aber schlichtweg nur das was man als Influencer versteht mit strikten Vorgaben von Nvidia. Unabhaengig war da wenig.
.Sentinel. schrieb:
Nachdem mir im Radeon VII Thread mehrfach unterstellt wurde, dass ich von den Roten gekauft sei, denke ich, dass wir das Verschieben dieser Diskussion auf ein Niveau welches uns beiden nicht gefällt, getrost lassen können. Bei Markenkriegsdiskussionen ist mein Geduldsfaden inzwischen extrem kurz.
Das ist schoen, aber in dem Fall wirkt es dann doch etwas bizarr wie du hier im Thread teilweise verteidigst. Zum Beispiel das mit der Veropplung der FP32 Einheiten, das war halt faktisch falsch was du gesagt hast. Vielleicht beim naechsten mal zweimal lesen? Duerfte uns beiden helfen.
.Sentinel. schrieb:
Nein- Aber einige Beiträge sind so fast schon "langweilig" tendenziös verfasst, dass ich mir beim Lesen immer wieder die Frage stelle, was der Urheber damit eigentlich bezwecken will.
Klar gibt es die, aber man kann Beitraege halt auch gern falsch verstehen wenn man selber nicht ganz unvoreingenommen ist. Deswegen sollte zusaetzlich zur Frage was der Urheber bezwecken will noch dazu gefragt werden ob man gerade selber das ganze so objektiv wie moeglich bewertet.
.Sentinel. schrieb:
Das sind mir die liebste Gruppe. Und wenn man mit dieser einen angeregten Diskurs führt, kommt immer ein Sammelsurium an interessanter Information raus. - Daraus erwächst ja meistens auch eher ein Miteinander als ein Gegeneinander. Eben weil man eben weiß, dass man das Produkt noch nicht in den Händen hält, kann man herrlich innerhalb der bekannten Parameter spekulieren.
Das ist auch angenehm, problematisch wird es nur, wenn jemand dann wieder ueberzeugt ist, dass seine Meinung die richtige ist. Da geben sich teilweise Leute "neutral" obwohl sie es gar nicht sind. Oder es sind nicht genug Informationen gelesen worden. Das wird schnell frustrierend.
.Sentinel. schrieb:
Macht doch nicht immer gleich so eine persönliche und pathetische Sache draus. Es geht um ne neue Grafikkarte. Ein nettes Hobby für die meisten, sonst nix.
Gerne doch, das sollten sich einige zu Herzen nehmen.
Bzw. ueberlege ich mir auch ob ich Nvidia kaufe oder nicht. Der einzige Grund den ich allerdings habe ist Machine Learning. Und dafuer sind die 3070 und 3080 halt ein schlechter Witz mit ihrer VRAM Bestueckung. Allerdings sind 1500 dann eine komplett andere Hausnummer. Meine 1080Ti habe ich auch nur wegen Machine Learning gekauft und der VRAM ist ziemlich schnell weg. Da bringt mir halt Leistung wenig, wenn ich sie nicht nutzen kann. 24GB waeren toll, aber der Preis... In dem Bereich ist AMD auch so eine Sache. Der Support bei Tensorflow ist nicht wirklich vorhanden, ausser durch einen Fork von AMD, der in Beta ist.
aldaric schrieb:
Ob RTX am Ende nicht auch nur ein billiger Passfilter ist? nVidia hat ja bei der Vorstellung steif und fest behauptet das die Tensor Cores dafür benutzt werden und das ganze über Deep Learning läuft.
Naja, was genau das Neural Net erlernt ist so eine Sache. Kann durchaus sein, dass es eine Funktion erlernt die einem Passfilter sehr aehnelt. Das ist nicht ausgeschlossen.
aldaric schrieb:
Die Frage dürfte wohl eher sein, warum läuft der Filter über Umwegen auch auf 1000er Karten, die keine Tensor-Cores besitzen ?
Naja, du kannst solche Netze immer auf normalen Shadern laufen lassen. So wie man auch neuronale Netze darauf trainieren kann. Dazu braucht es keine Tensor Cores. Die koennen nur spezielle Funktionen schneller. Interference kannst du auch auf der CPU laufen lassen wenn du willst. Das ist nicht das was Leistung braucht, das Training ist es.
Lars_SHG schrieb:
Davon ab, mit vermuteten 5120 Shadern bei Big-Navi hätte bei Deiner Vermutung AMD keine Chance denn "Big-Ampere" hat 10.496 und die 3080 immer noch 8704.
Bitte lies den Artikel nochmal. Die Aussage ist einfach falsch. Nvidia hat immer noch nur 5248 und 4352, das einzige was Nvidia jetzt kann ist die INT Einheiten auch fuer FP32 nutzen. Allerdings mit der Einschraenkung INT ODER FP32, nicht gleichzeitig. Das kann AMD schon lange.
FreedomOfSpeech schrieb:
@.Sentinel.
Schaut für mich aus wie 64+64 und nicht wie 128+64.
Sind es auch. 64 FP32 und 64 INT ODER 64 FP32. Nvidias Marketing mit der Verdopplung an CUDA Cores suggeriert aber halt was anderes. Die wissen schon was sie tun.