News Nvidia Turing: Potentielle Benchmark-Ergebnisse entdeckt

GerryB schrieb:
Ja + Nein
Nehme mal an, Du hast keine Vega.

Nichts Jain oder Ja + Nein, das verlangt doch alleine schon normale Logik ab.
Der Standardverbrauch einer Vega 56 liegt bei etwa 230 Watt, mit Undervolting wird der TDP Rahmen wieder ausgereizt, nur mit mehr Takt, das heißt Leistungsaufnahme bleibt gleich, Takt steigt, PT bleibt gleich.
Dort im Test sinkt der Verbrauch um 70 Watt auf das Niveau einer 1070 ab, wie soll das funktionieren, wenn doch gleichzeitig der Takt erhöht wird, aber das Powertarget gleich bleibt?
Da muss man nur 1:1 zusammenzählen, sry aber das ist Kindergarten.
 
axelfr74 schrieb:
Möglich. Aber der Vergleich eines Custom Modells mit einer (vermeintlichen) Founders Edition hinkt auch ein wenig. Entweder Founders Ed. gegen Founders Ed. oder Custom gegen Custom.
StefVR schrieb:
Mich wuerde es nicht wundern

Ja aber customs der 2080 holen sicher auch wieder was raus ubd wir wissen nicht wie viel. Damit ist die 2080 dann wieder schneller.

Istvgebau so ne kilvhmaedchebrechnung wie damals die 1080fe mit ner 980ti kingpin und volt mod zu vergleichen
Es kommt halt auch drauf an, wie gut Nvidias neuer Kühler ist. Jetzt sind es ja zwei große Axiallüfter, die mit der Leistungsaufnahme durchaus zurecht kommen könnten, anders als die alten DHE Designs. Und solange sich Customs an die TDP Limits halten sollte Nvidia genauso schnell sein, wie die kommenden Customs
 
  • Gefällt mir
Reaktionen: Bairok
hatte ich gestern schon auf einer anderen seite gelesen, wenn es stimmt, dann bleibe ich erstmal bei meiner titan xp ce ;)
 
Ludwig55 schrieb:
Project Cars läuft komplett Gameworksfrei, da ist nicht ein Codeschnipsel enthalten.
Bitte höre doch mal auf Falschaussagen und Gerüchte zu Fakten zu verwursten, das kann man doch in ein paar Sekunden googlen.


Nein, mitnichten, das ist nur der Fall wenn ein Prozessorlimit vorliegt.
Der AMD Treiber kam mit den Drawcalls und der Physikengine des Spiels weniger gut zu recht.
Aber Hauptsache Nvidia sei schuld.:D Guter Witz.

Das glaubst du doch selber nicht ????

Project Cars und kein Gameworks ?, du wirfst mir gerade non Stop vor Falschaussagen zu machen, aber du hast "ergoogelt" das es keinen Gameworks Support hat ??

Das Spiel wurde damals gecrowedfunded und ich hab die Alpha/Beta etc. gespielt.
Das Spiel lief super bis eben Nvidia seinen Gameworks Support angekündigt hat.
Dann kam der erste Build in Kooperation der Entwickler und Nvidia.
Die haben da wirklich Leute hingeschickt, damit die denen "unter die Arme greifen".

Das Resultat, war dann eben jenes, dass das Spiel plötzlich drops hatte wo keine waren und plötzlich Treiberanpassungen von AMD notwendig waren, wo davor keine notwendig waren.

Sowas kannst du schlicht nicht in Google finden, wenn du den Mist selber erlebt hast.

Abgesehen davon, dass im Spiel ausnahmslos überall Nvidia Fahnen sind, einfach ÜBERALL.


Der erste Aufschrei bei Gamworks und Project Cars war in 2015, aber dass kannst du ja selber googlen.
 
  • Gefällt mir
Reaktionen: IceY78 und AssembIer
bad_sign schrieb:
Ich hoffe du weißt, das die Powerangabe nur die GPU ist, ohne Spannungswandler. Bin mir nicht mehr sicher, ob der HBM nicht auch noch ausgeschlossen ist von der Angabe.

Wieviel würdest du drauf rechnen? An der Steckdose bin ich ungefähr bei 340W maximal. Da ist ja dann auch noch die CPU drin und alle anderen Komponenten.
 
StefVR schrieb:
Mich wuerde es nicht wundern

Ja aber customs der 2080 holen sicher auch wieder was raus ubd wir wissen nicht wie viel. Damit ist die 2080 dann wieder schneller.

Istvgebau so ne kilvhmaedchebrechnung wie damals die 1080fe mit ner 980ti kingpin und volt mod zu vergleichen

Die werden aber nicht massiv viel mehr herausholen können. Zumal die 2080 eher wieder danach aussieht ein Krüppel in der Bandbreite zu sein. Selbst die 1080 Ti FE hat mehr. Und gerade in höheren Auflösungen bringt das mehr als mehr GPU-Takt.
 
Sagt Dir die Glaskugel? Ram OC bei DDR6 hab uch noch nirgends gesehen ob und wieviel da geht.
 
StefVR schrieb:
Sagt Dir die Glaskugel? Ram OC bei DDR6 hab uch noch nirgends gesehen ob und wieviel da geht.

Als ob da neue Maßstäbe drin wären. Du müsstest da schon mehr als 18% nur an RAM-OC herausholen, um die schnellsten Custom 1080 Ti übertrumpfen zu können. Bei den 1080 gingen meistens rund 10%, einige wenige haben auch mehr geschafft. Und die schnellsten Ti konnte man auch noch mal mit OC versorgen. Sorry, aber ich denke nicht, dass GDDR6 out of the box 20% RAM-OC erlauben wird.
 
aivazi schrieb:
Das glaubst du doch selber nicht ????

Natürlich, Project Cars nutzt kein Gameworks, sondern nur CPU Physx.
Gibt viele Leute die verwechseln GPU und CPU Physx.

Project Cars und kein Gameworks ?, du wirfst mir gerade non Stop vor Falschaussagen zu machen, aber du hast "ergoogelt" das es keinen Gameworks Support hat ??

Nein, du sollst das googeln, weil ich es ja zuvor schon wusste.

Das Spiel lief super bis eben Nvidia seinen Gameworks Support angekündigt hat.

Nvidia hat die Spieleentwickler unterstützt, ja, aber das Spiel unterstützt kein Gameworks.
Wenn man ständig Falschaussagen bringt, dann sollte man auch die Reife haben, sich selbige Einzugestehen.
Es ist übrigens überhaupt nichts unübliches dass AMD oder Nvidia Leute zu den Spieleentwicklern schicken, um ihnen unter die Arme zu greifen, AMD kümmerte sich halt nicht um Project Cars, wie die Entwickler auch sagten.

Das Resultat, war dann eben jenes, dass das Spiel plötzlich drops hatte wo keine waren und plötzlich Treiberanpassungen von AMD notwendig waren, wo davor keine notwendig waren.

Als ob du in der Lage wärst das zu beurteilen.
Du sitzt wieder mal einer Falschaussage und Verschwörungstheorie auf und wenn jemand was dagegen sagt, ist er ein Nvidia Fanboy.:rolleyes:

Aber es wäre für dich ja zu aufwändig den Grund für AMD´s schlechtes Abschneiden zu hinterfragen.
Ich geb dir mal einen Tipp: Drawcalls unter Directx11/Treiberoverhead/Mantle. Danach kannst du googeln.
Soll heißen mit Direct X12 oder Mantle/Vulkan wäre das Spiel auf AMD wesentlich besser gelaufen.

Sowas kannst du schlicht nicht in Google finden, wenn du den Mist selber erlebt hast.

Ja, du hast selbst erlebt wie sie geschummelt haben und den Code eingefügt haben.:p
Du fängst an mich zu langweilen, ab hier muss dann diese Kindergarten-diskussion auch mal ein Ende haben, jedenfalls von meiner Seite.
 
Zuletzt bearbeitet:
und am ende gibt es die tensor cores für ai quasi umsonst/kostenlos dazu.

npc´s, die ihr verhalten über die tc´s "live" berechnet bekommen. es geht schon in die richtige richtung, die software muss jetzt langsam kommen.

ich stelle mir z.b. einen shooter vor, der auf rtx karten mit "max ki" keinerlei leistung kostet und mit gtx karten fast unschpielbar ist. oder das neue elder scrolls mit richtig schlauen npc´s, nur für rtx kunden. wäre ein feature, mit dem man karten verkaufen könnte.

nvidia wird sich schon was dabei gedacht haben und der preis ist bei der größe des chips halt schon fast angemessen. abwarten was die software bringt oder halt eine als erster haben. werden schon genug tech-nicks kaufen.

mfg
 
Ich hole mir eine RTX 2080, ich komme von einer 1070 und spiele in 3440x1440. Die Ti Version wäre zwar noch besser, aber ich muss auch noch für den Rest des Monats leben (Azubi). Verkauf der GTX 1070 Gaming X brachte mir 310€ ein. Ansonsten hoffe ich, dass das DLAA noch einen FPS Schub bei gleicher oder bessere Bild Quali liefert. :)
 
[wege]mini schrieb:
und am ende gibt es die tensor cores für ai quasi umsonst/kostenlos dazu.

npc´s, die ihr verhalten über die tc´s "live" berechnet bekommen. es geht schon in die richtige richtung, die software muss jetzt langsam kommen.

ich stelle mir z.b. einen shooter vor, der auf rtx karten mit "max ki" keinerlei leistung kostet und mit gtx karten fast unschpielbar ist. oder das neue elder scrolls mit richtig schlauen npc´s, nur für rtx kunden. wäre ein feature, mit dem man karten verkaufen könnte.

nvidia wird sich schon was dabei gedacht haben und der preis ist bei der größe des chips halt schon fast angemessen. abwarten was die software bringt oder halt eine als erster haben. werden schon genug tech-nicks kaufen.

mfg
Was stellst du dir eigentlich vor, wie viel Aufwand Spiele-Entwickler zur Erstellung einer KI stecken, dass diese so leistungshungrig ist, dass die heutigen CPUs nicht berechnet bekommen?... Das juckt eine CPU nicht die Bohne, was die KI da berechnet möchte. Die macht das nebenbei, dafür braucht man nicht die superduper-Cores von der Superduper-RTX...

Ihr müsst euch einfach Mal eingestehen, dass die RTX kaum schneller als die Pascal-Generation wird und dabei nur RT-Cores mitbringt, die für die kommenden 2-3 Jahre absolut null bringen werden...
 
die ki kann man ja lizensieren....so wie damals ragdoll, speedtree oder haufen anderer sachen die reine software waren. muss ja nicht jedes studio immer das rad neu erfinden.

mfg
 
DenMCX schrieb:
Ihr müsst euch einfach Mal eingestehen, dass die RTX kaum schneller als die Pascal-Generation wird und dabei nur RT-Cores mitbringt, die für die kommenden 2-3 Jahre absolut null bringen werden...

Warum sollte man sich das "eingestehen", wenn es von nVidia die (natürlich mit Vorsicht zu genießende) offizielle Aussage von +50% gibt und hier ein geleaktes Benchmarkergebnis einer mutmaßlichen RTX 2080 -ohne treiberseitige Optimierungen- ca. +37% in Aussicht stellt?

Das sind absolut beeindruckende Zuwächse. Bei 12nm handelt es sich um einen Mini-Shrink, der im Grunde eher 16nm+ entspricht.
nVidia hat es trotzdem geschafft, zwischen den Generationen einen äußerst beachtlichen Leistungszuwachs abzuliefern, der über eine Vielzahl von Spielen im Schnitt vermutlich tatsächlich zwischen 30% und 50% liegen wird (ohne RT natürlich.).
Die haben mit der Turing-Architektur offensichtlich alles richtig gemacht.

RT(X) und DXR Support ist dann noch das Sahnehäubchen obenauf für Enthusiasten, die gerne an der Speerspitze des technischen Fortschritts vorne mit marschieren möchten.

Natürlich wird es noch dauern und wir werden noch deutlich mehr Performance brauchen bis das Ray-Tracing richtig flutscht, aber das ist völlig klar bei solchen neuen Technologien.

Selbst nicht mehr so neue Trends wie 4K und VR sind ja im Grunde noch in der Phase, wo man noch lange nicht von überzeugender Performance sprechen kann oder davon, dass das jeder haben "muss", geschweige denn überhaupt befeuern kann.
 
axelfr74 schrieb:
Möglich. Aber der Vergleich eines Custom Modells mit einer (vermeintlichen) Founders Edition hinkt auch ein wenig. Entweder Founders Ed. gegen Founders Ed. oder Custom gegen Custom.

Evtl ist das dem ein oder anderen nicht bewusst aber es ist bereits Fakt das die künftigen FE Modelle bereits OC Taktraten haben. Es ist also durchaus berechtigt FE von Turing mit Custom von Pascal zu vergleichen.

Steht übrigens hier:

https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2000-founders-edition-details/
 
Ich kann diese Diskussion nicht so ganz nachvollziehen. Zu 90 % müssen neue Spiele auf der aktuellen Konsolengeneration laufen. Der Anteil an Spielen, die PC only entwickelt werden ist relativ überschaubar, die Anzahl der Leute die sich für 600,- Euro eine Grafikkarte kaufen sehr gering.

Welcher Hersteller wird sich das antun, extra für die paar Leute (in Relation zum Gesamtmarkt) diese neuen Features zu unterstützen?

Klar, zur Ankündigung hat NVIDIA jetzt in die Tasche gegriffen und ein paar Programmierer ein paar spiele optimieren lassen, nur Fakt ist, vor Ende 2019 kommt Konsolenmässig nichts Neues, solange kann sich meiner Meinung nach kein Hersteller erlauben, rtx only zu programmieren.
 
Ludwig55 schrieb:
Natürlich, Project Cars nutzt kein Gameworks, sondern nur CPU Physx.
Gibt viele Leute die verwechseln GPU und CPU Physx.

Ja freut mich für dich dass du denkst es zu wissen

Die Erklärung, warum die FPS teil 50% massiv nach oben gehen, wenn man die Straßendetails senkt. liegt sicher auch am Physx ? und nicht an irgendwelchen verblödeten Tesselations Stufen.... ?

Wenn du es nicht gespielt hast und es nicht mitbekommen hast, kannst du mir sicher keine Unwissenheit vorwefen. Bestenfalls ist dein Wissensstand nicht korrekt, da ich sicher keine Halluzinationen oder Einbildungen hab.

Auch hat das einen Mist mit den Drawcalls zu tun.

Wie gesagt vor GW lief das Spiel auf Max flüssig und Stabil, danach eben erst mit bestimmten Parametern auf Komplett niedrig. Obwohl optisch kein Unterschied zu sehen war.

Wenn du immer noch meinst, dass das an den Drawcalls liegt, dann bitte, dann bist du eben ein Fanboy, aber ich lass mir nicht unterstellen dass ich an Verschwörungstheorien glaube und Zudem dann noch auf Ignore stellen ?

Du hast wahrscheinlich echt die Faktenlage verstanden.

Bestimmt ist das Tesselationmesh bei Batman und Crysis 2 auch nur Einbildung......


Edit; Ich fasse nochmal zusammen was du nicht sehen willst.
Spiel läuft auf AMD und Nvidia -> Nvidia steigt ein -> plötzlich muss AMD optimieren um die Ursprüngliche Leistung zu erhalten die bereits ohne Optimierung vorhanden war ?

Wenn du dir selber keine Gedanken über solche offensichtlichen Kausalketten machen willst und auf Verschwörungs schiebst, dann Gratulation. Du bist offensichtlich auf Nvidia und deren Marketing Geschwätz reingefallen .
 
Zuletzt bearbeitet:
Aber ich dachte, dass es bereits allgemein bekannt ist, dass nv gameworks Karten von AMD ausbremst ist das nicht auch der Sinn des ganzen?
 
  • Gefällt mir
Reaktionen: aivazi
BestinCase schrieb:
Aber ich dachte, dass es bereits allgemein bekannt ist, dass nv gameworks Karten von AMD ausbremst ist das nicht auch der Sinn des ganzen?

Ja inoffiziell. Er denkt wirklich, dass die Effekte auf AMD und Nvidia gleich viel Leistung fressen...
 
BestinCase schrieb:
Aber ich dachte, dass es bereits allgemein bekannt ist, dass nv gameworks Karten von AMD ausbremst ist das nicht auch der Sinn des ganzen?

Nein, der Sinn von Gameworks ist ganz einfach der, den nVidia Karten-Besitzern einen Mehrwert zu bieten. Die spezielle Anpassung der Games ist gewissermaßen ein Premiumservice für nVidia Kunden und nVidia erhofft sich logischerweise höhere Absätze ihrer Karten. Eine win-win Situation (für nVidia und ihre Kunden).

Dass Besitzer von AMD-Karten "ausgebremst" werden, ist sicher keine direkte Absicht, sondern eher als Kollateralschaden zu verbuchen, wenn auch sicherlich ein nicht ganz unerwünschter Nebeneffekt aus Sicht von nVidia ;) .

Nun wollen ja auch nicht so tun, als ob es das bei AMD nicht ebenso gäbe. AMD Evolved verfolgt exakt dieselbe Strategie, z.B, damals das AMD-exklusive TressFX bei TombRaider, das zunächst auch nur auf Radeons ohne Darstellungsfehler funktionierte.

nVidia hat aber nun mal finanziell mehr Mittel und daher ist Gameworks naturgemäß weiter verbreitet.
Gameworks wird nVidia schon so einiges kosten, denn sie müssen ja extra eigene Programmierer abstellen, die beim Entwickler vor Ort über Monate hinweg Support und Consulting leisten.

Die Publisher werden für die PC-Version eines Spiels in den meisten Fällen kaum ein größeres Extra-Budget für Gameworks freigeben. Ich gehe davon aus, dass nVidia diese Kosten daher nahezu komplett alleine tragen müssen.
 
Zurück
Oben