nixalsverdruss
Ensign
- Registriert
- Juli 2014
- Beiträge
- 172
KI als Kernkompetenz für autonomes Fahren. Jo, hoffentlich stimmen die Spaltmaße.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Mustis schrieb:Mit Sicherheit nicht. Das wird doch immer deutlicher! Nvidia hat den kurzfristigen Fokus ganz klar auf den Volta Nachfolger Ampere gerichtet und dieser ist ohne deutliche Anpassungen nicht als Desktop-Grafikkarte nutzbar. Und selbst wenn, die dort nötige ALUs aka CUDA Leistung steigt bei Ampere kaum an, 24% wie man hier sieht. Man muss also sogar offen, dass die Gaming Ampere sich deutlich unterscheidet von der Datacenter Ampere, sonst wird der Leistungssprung sehr übersichtlich. Auch fehlen wohl RTX Kerne und ich bezweifele, dass Nvidia die bereits wieder aufgibt nach einer Generation.
Wenn die Software das nutzt und dann auch auf AMD laufen wird, werden sie das wohl auch tun. Ohne nutzen bräuchte Nvidia das ja nicht. Vielleicht hat AMD das auch schon in Arbeit.Teralios schrieb:hier wird AMD früher oder später auch entsprechend "einfache" Schaltungen in ihre Grafikkarte einbauen müssen, wenn sie da mit halten wollen
Mustis schrieb:Ja dazu muss man die aber auch erstmal haben. die 2080 Ti taktet selbst im Bost 500 mhz weniger... die 1080 Ti taktete auch bei 1500 und un sollen 500mhz direkt mehr sein?
Mustis schrieb:Ja isn Shrink, halte ich für dennoch unwahrscheinlich zumal auch 1080 Ti auf 2080 Ti einen Shrink enthielt und die Taktraten dennoch weitgehend identisch waren.
Mustis schrieb:Da die Tensor Cores nur das Denoising (wenn ich mich recht entisnne) machen reicht das allein für RTX nicht aus. Es fehlt die RT Einheit auf dem DIng mit den RT Kernen von denen Turing 36 hat bei der 2080 TI.
Meine MSI lässt sich nich auf 2100mhz übertakten...Shoryuken94 schrieb:Da sind 2000mhz nicht wirklich so viel angenommen bei einer potentiellen Desktop Ampere Karte.
Die Gaming-Ableger von Turing wurden im August vorgestellt und kamen im September, aslo inwiefern wird es knapp? Das neue Desktop-Karten noch dieses Jahr kommen gilt als sehr warscheinlich, weil sich trotz fehlender Konkurrenz eine Marktsättigung bildet und man somit neue Produkte braucht, um Verkaufszahlen und Umsatz hochzuhalten.Mustis schrieb:Der Hauptgrund ist, dass man eben genau gar nichts seitens Nvidia bisher dazu gesagt hat. Wird langsam bisschen knapp, wenn man bedenkt, wieviel Zeit sonst so vergeht zwischen erster offizieller Ankündigung und Marktstart...
Das wissen wir nicht. Wir reden hier von einem theoretischen TFLOPs Wert, auf den man noch nie irgendwas geben konnte. Schaffen sie es die ALUs besser auszulasten, also die IPC zu steigern, die Kommunikationsanbindung zu straffen etc., dann kann da an tatsächlich nutzbarer Leistung deutlich mehr drin sein.Mustis schrieb:@ZeroZerp
Die reine FP32 Leistung steigt nur relativ minimal und das beim Vollausbau.
Wenn Du das 20- Fache Rechenbudget allein über die Tensor- Cores hast (kann mir nicht vorstellen, dass wir das auf den Gaming- Karten zu sehen bekommen), kannst Du die DLSS Qualität steigern, DLSS weiter beschleunigen und tatsächlich noch das Denoising, was derzeit noch gut 50% der Rechenlast beim Pathtracer ausmacht, auf diese schieben. Dann hast Du die bessere Qualität als nativ aufgelöst, die Du hier forderst.Also welche Leistungssteigerung siehst du? Also sofern man nicht über DLSS in deutlich geringer Auflösung zocken will (mich at auch das DLSS 2.0 noch nicht soweit überzeugt, dass ich auf native Auflösung verzichten will, da es noch immer unschärfer ist) habe ich zwar ggf. gestiegen RTX Leistung, aber im Kern eine fast schon stagnierende Leistung.
Kommt darauf an, wie man es nun deuten will.Krautmaster schrieb:hm letztes mal kam glaub der Desktop Pendant wenige Wochen / Monate nach der HPC Variante.
ZeroZerp schrieb:Mal sehen, was sich von den Daten auf die Spielegrafikkarten rüberretten lässt, bzw. was nvidia zulassen will
Hätte, könnte, stünde....
Kommt immer auf die Berechnung an. Man muss sich halt bewusst sein, dass TF gewisse Einschränkungen mit sich bringen wird.Fritzler schrieb:Das "TF32" klingt aber echt nach Beschiss weil der Name mehr genauigkeit suggeriert als überhaupt vorhanden ist.
Jaein, muss man an der Stelle sagen. NVIDIA hat mit Pascal quasi auch nur eine Architektur auf dem Markt gehabt nach dem Namen, diese aber je nach Hauptaufgabengebiet entsprechend angepasst. Pascal für HPC hatte pro SM 64 FP32-Shader, 32 FP64-Shader und halt doppelt soviele SM wie Pascal für Spieler und die Quadros.Shoryuken94 schrieb:Nvidia hat doch selbst bestätigt, dass es keine Trennung mehr zwischen den Architekturen gibt und Ampere sowohl im HPC Bereich, als auch in anderen bereichen eingesetzt wird.
uncrypted schrieb:Die wichtigste bisher unbeantwortete Frage ist aber, does it run Crysis ????
Turing hat in der Tat Cuda-Cores, Tensor-Cores und RT-Cores, jeweils in unterschiedlicher Anzahl.Häschen schrieb:Macht die Software aus denn Tensor Cores nicht die RT einheit?
Sonst hätte turing drei unterschiedliche Cores neben Cuda
MrNejo schrieb:Die Gaming-Ableger von Turing wurden im August vorgestellt und kamen im September, aslo inwiefern wird es knapp? Das neue Desktop-Karten noch dieses Jahr kommen gilt als sehr warscheinlich, weil sich trotz fehlender Konkurrenz eine Marktsättigung bildet und man somit neue Produkte braucht, um Verkaufszahlen und Umsatz hochzuhalten.
uncrypted schrieb:Die wichtigste bisher unbeantwortete Frage ist aber, does it run Crysis ????
mic_ schrieb:but can it run Crysis?
t3chn0 schrieb:Absolut krass was Nvidia da auf die Straße bringt. Ich finde das einfach nur noch beeindruckend mit wie viel Innovationen und Performance/Verbrauch hier Gas gegeben wird.
(was Sie sich teuer bezahlen lassen werden)
Außerdem benutzt Nvidia nun Prozessoren von AMD, wie kann sowas nur sein? Was machen denn nun die ganzen Anti-Nvidia und pro AMD Fanboys?
(AMD hat mehr Corse, PCIe 4.0, bei günstigerem Preisen = Logische entscheidung)
Oh man, das muss sich unglaublich schäbbig anfühlen =D. Ich feier das einfach nur extrem.
(Wer, Intel? Die haben einfach gepennt bzw. ihren neuen Prozess nicht im Griff = kein passendes Angbot geliefert)
Hört doch mal bitte auf mit diesem Video. Der Typ hat die plausiblen Daten von Kittys Leaks geklaut und dann seine Wahnvorstellungen aka 4xRT und DLSS 3.0 als Injektor dazugesponnen. Ist doch klar was hier läuft. Der Typ sollte null Beachtung dafür kriegen.johnieboy schrieb:An den Leaks von KittyKitties zu den Gaming Karten scheint was dran zu sein
https://twitter.com/VideoCardz/status/1260903348158554112
Anhang anzeigen 918770
Dazu kommt dieses Video von vor 2 Tagen, hört sich zumindest plausibel an.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.