News Nvidia Turing: Potentielle Benchmark-Ergebnisse entdeckt

L55
Vega gehört eigentlich nicht hier her, aber Vega@Stock mit AMD-Settings ist tatsächlich so schwach, wie in den Reviews dargestellt.
Aber schau Dir bei HW-Luxx das UV-Review an, da ist Alles in Butter.
https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html
FS.png

W.png

Die 1070 ist mit fps/W nicht so dolle besser und mit HDR geht gar nichts Gescheites.

Bzgl. Primitive Shader liegt der Ball bei den Dev´s, wurde z.Bsp. in W2 für Geometrie genutzt.
(bei RX64 LCE fehlen einfach ein paar ROPs, daher hier Einsatz von PS sehr wirkungsvoll.)
 
Zudem ist zu beachten, dass die aktuelle Version des Time-Spy-Benchmarks einige neue Funktionen der Turing-Architektur, wie beispielsweise Raytracing oder die Kantenglättung DLSS, gar nicht nutzen kann.

Mhm. Und wenn RTX und DLSS zum Einsatz kommen, muss der Rest des Bilds nicht mehr gerendert werden? Bischen normal und realistisch bleiben bitte - RTX und DLSS sind lediglich Ergänzungen zum bzw geringfügige Änderungen am normalen Rasterization Rendering.


Zur Performance:

GTX 1080 Ti: Shader 3584, TMUs 224, ROPs 88, Speicherbandbreite 480 GB/s
RTX 2080: Shader 2944, TMUs 184, ROPs 64, Speicherbandbreite 450 GB/s

Takt wird ca gleich sein - wie bei Volta gesehen, 12nm hat als verbesserter 16nm Prozess kein erhöhtes Taktpotential. Cachestruktur soll bei Turing verbessert sein, Shaderperformance soll sich erhöht haben, etc - aber über die Rohdaten kann man sich halt trotzdem nur bedingt hinweg setzen.

Und, wir haben ja auch bereits gewisse Anhaltspunkte, aus denen sich schliessen lässt, dass RTX exakt wie Pascal bei den gleichen Rohdaten performt.

Wird vll aufgrund der neuen Architektur ein paar Ausreisser nach oben geben, aber that's it. Ich gehe anhand dieser News davon aus, dass Timespy ein Benchmark ist, bei der die neue Architektur überdurchschnittlich performt.. oder halt einfach ein Fake.
 
aivazi schrieb:
Das ist beides bisher proprietär. Das bringt dem Markt einfach gar nichts, außer dass Nvidia seine Anteile weiter ausbaut und AMD noch weiter verdrängt.

Na sowas aber auch, dann ist ja alles von AMDs GCN Architektur proprietär, schliesslich darf man die GPUs nicht ohne Lizenz nachbauen, oder bzw. Gar nicht.
Wenn Nvidia RTX nicht proprietär wäre, dann hätte Nvidia wohl ein grösseres Problem.

Das ganz läuft über Microsofts Direct x12 API mit RT Erweiterung, genauso aber auch über Vulkan.
Wenn du das so siehst, dann war Directx10.1 das eineZeit lang nur AMD Karten beherrschten auch ganz doll AMD proprietär.

Das war jetzt schon die fünfte oder sechste ganz gezielte Falschbehauptung.
 
  • Gefällt mir
Reaktionen: Oneplusfan
werpu schrieb:
Man darf halt nicht nur auf die reine Renderleistung schauen. Die 6% mehr gegenüber der TI sind das was im Rahmen des üblichen zu erwarten ist halt der übliche 30-40% Leistungsschub gegenüber der Vorgängergeneration, aber es kommen halt diesmal noch jede Menge Features dazu die noch ein bischen offen sind was sie bringen werden, die aber eventuell mehr bringen als ein reiner Renderleistunggschub von 30%.

Das sehe ich genau anders herum. Alle neuen Features sind doch nur ein Sahnehäubchen oben drauf (kommende Softwareunterstützung vorausgesetzt).
Die reine Rohleistung in klassischem Rasterization braucht man so oder so. Sei es in älteren Spielen oder kommenden ohne RTX-Support (Konsolenports usw.), als auch in RTX-Vorzeigetiteln von NV-Partnern, denn für gute FPS in hoher Auflösung sind halt immer noch allein die klassischen Shader, ROPs usw. verantwortlich.

Die schönsten Schatten und Reflexionen nutzen einem nichts, wenn das Spiel trotz FullHD nur mit unter 60FPS über den Schirm ruckelt. Und AA bringt halt auch immer nur so viel. Letztlich kann es eine höhere Auflösung nicht ersetzen.

Ich werde nur dann eine 2000er-Karte in Erwägung ziehen, wenn sie, auch ganz ohne RTX-Features, wesentlich schneller ist als der Vorgänger. Es sollte schon in Richtung +50% gehen, damit wenigstens die Preisdifferenz halbwegs gerechtfertigt ist.
 
Ludwig55 schrieb:
Wenn du das so siehst, dann war Directx10.1 das eineZeit lang nur AMD Karten beherrschten auch ganz doll AMD proprietär.

Wenn du dich genau erinnern könntest, würdest du auch wissen, das Nvidia diese Ausbaustufe von DX mit seiner Marktmacht unterdrückt hat... Schon vergessen dass die 10.1 Implementierungen verschwunden sind, als man realisiert hat, dass es AMD einen Vorteil bringt ?...

BTW: Ich glaube erst, dass der Mist nicht proprietär ist, bis die anderen Hersteller problemlos nachziehen können. Bis dahin ist es proprietärer Ranz.

Gameworks basierte doch damals auch auf DX11.... Du musst schon das Gegenteil, beweisen wenn du mir falsch Aussagen unterstellst.
 
Zuletzt bearbeitet:
Das ist aber keine Custom 1080 Ti in dem Bench. Werde das mal nachher mit 2Ghz Takt auf GPU und höherem Speicherdurchsatz gegen testen (528GB/s statt 484).
 
GerryB schrieb:
Aber schau Dir bei HW-Luxx das UV-Review an, da ist Alles in Butter.
https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html
Anhang anzeigen 704733
Anhang anzeigen 704734
Die 1070 ist mit fps/W nicht so dolle besser und mit HDR geht gar nichts Gescheites.

Das liegt daran dass dieser Test fehlerhaft ist, in Wirklichkeit sind die Werte mit maximaler Übertaktung erzielt worden.
Die Leistungsaufnahme wurde dann falsch gemessen, oder der Tester ist in der Zeile verrutscht.
Niemand war im Stande die Ergebnisse zu reproduzieren.
Ergänzung ()

aivazi schrieb:
Wenn du dich genau erinnern könntest, würdest du auch wissen, das Nvidia diese Ausbaustufe von DX mit seiner Marktmacht unterdrückt hat

Was für deine erneute Falschbehauptung keine Rolle spielt, trenne bitte Nvidias Umsetzung von Raytracing als Architektur von Microsofts Schnittstelle ab und vermenge diese nicht.
Mag schon sein dass Nvidia Directx 10.1 in Assassins Creed nicht wollte, nachweisen kannst du es nicht.
 
franeklevy schrieb:
Sieht man mal nur auf die Graphics Score, dann ist die 1080Ti bei gleichem Takt ~4%schneller. Was genau der Spaß soll diese mit dem Pentium gegen die neue GPU mit deutlich besserer CPU zu stellen, um beim ersten Blick die neue GPU in einem massiv besseren Licht dastehen zu lassen...naja.

@Ludwig55: Deine Lobhudelei auf Nvidia ist echt anstrengend zu lesen.
 
  • Gefällt mir
Reaktionen: AssembIer, russianinvasion, cookie_dent und eine weitere Person
aivazi schrieb:
Ich glaube erst, dass der Mist nicht proprietär ist, bis die anderen Hersteller problemlos nachziehen können. Bis dahin ist es proprietärer Ranz.

Was du glaubst oder nicht glaubst, interessiert niemanden, Tatsache ist dass du hier Spekulationen die auf deinem eigenen Mist wachsen als Fakten hinstellst.
Wenn du dich mit Directx12 Raytracing auseinander gesetzt hättest, dann würdest du wissen dass bereits AMD im März diesen Jahres ihre proprietäre Umsetzung mittels einer Demo und eines Treibers angekündigt hatte.
aivazi schrieb:
Gameworks basierte doch damals auch auf DX11.... Du musst schon das Gegenteil, beweisen wenn du mir falsch Aussagen unterstellst.

Ja was glaubst du auf welcher API die meisten Spiele entwickelt werden, Open CL?
Natürlich läuft Gameworks unter Direct x11, was vor allem der Grund ist warum fast alle Gameworkseffekte auf AMD gleich performant laufen.....:freak:
 
.....schöne Leistung wenn es sich um die 2080 handelt. Nicht vergessen, der Mittelklasse Chip TU104 schlägt den ehemaligen Gamer Big Chip GP102.
Was allerdings noch im unklaren ist, ist der Takt. Sollte die 2080 tatsächlich den Takt von allein erreichen können ohne besondere Kühlung oder manuellem OC, wäre das schon mal eine Hausnummer und würde bestätigen was bei der Vorstellung angekündigt wurde - sehr gute OC-Fähigkeiten!
Ist es aber eine Custom-Karte mit OC, könnte die Leistung der normalen Karten eher auf Linie der alten ti oder sogar knapp darunter ausfallen.
Es bleibt also wie es ist, wir warten erst mal die richtigen unabhängigen Tests ab.........
 
Ludwig55 schrieb:
[...]
Was für deine erneute Falschbehauptung keine Rolle spielt, trenne bitte Nvidias Umsetzung von Raytracing als Architektur von Microsofts Schnittstelle ab und vermenge diese nicht.
[...]
Da hast du recht. Nicht die Algorithmen sollten offen sein, sondern die Schnittstellen und Frameworks. In sofern hat es NVidia hier diesmal anständig gemacht und bietet nicht irgendeinen neuen Gameworks-Effekt für RTX an.
 
GerryB schrieb:
Die 1070 ist mit fps/W nicht so dolle besser und mit HDR geht gar nichts Gescheites.

das 2 jahre alte laptop vor dem ich hier gerade sitze macht 4008 pts im ultra bei 158watt für das ganze laptop. da hab ich nicht mal das akku rausgenommen oder strom gespart :D

nach unten hin sind die nvidia karten unverschämt gut. muss man ehrlich sagen.

mfg
 
Zur Erinnerung: nVidia und erzwungene Hofberichterstattung etc.

https://www.heise.de/newsticker/mel...A-als-Maulkorb-fuer-Journalisten-4091751.html

Entsprechend sind Berichte von Redaktionen zu bewerten, die sich nicht gewehrt haben.

Dazu noch die Erinnerung an den Versuch von nVidia, die Kartenhersteller dazu zu zwingen, Karten mit GPUs anderer Hersteller nicht mehr unter ihrem Markennamen zu verkaufen.

Und noch die Sache mit den Lügen bei der Speicheranbindung.

Muss jeder Interessent selbst entscheiden, ob er solche Methoden mit seinem Geld unterstützen will, damit aus der Marktführerschaft ein Monopol wird.
 
  • Gefällt mir
Reaktionen: AssembIer, russianinvasion, Orok91 und eine weitere Person
evolute schrieb:
Da hast du recht. Nicht die Algorithmen sollten offen sein, sondern die Schnittstellen und Frameworks. In sofern hat es NVidia hier diesmal anständig gemacht und bietet nicht irgendeinen neuen Gameworks-Effekt für RTX an.

Jedenfalls ist in punkto Raytracing kein Gameworks bekannt, offenbar verwendet aber bereits cyberpunkt 2077 rays und parallel Hairworks.
 
  • Gefällt mir
Reaktionen: Yar, Orok91, Averomoe und 2 andere
Ludwig55 schrieb:
Ja was glaubst du auf welcher API die meisten Spiele entwickelt werden, Open CL?
Natürlich läuft Gameworks unter Direct x11, was vor allem der Grund ist warum fast alle Gameworkseffekte auf AMD gleich performant laufen.....:freak:

Ha, allen ernstes, seit wann laufen den Gameworks Effekte gleich performant auf AMD ???
Schon Project Cars und GW vergessen und ziemlich viele Gameworks Spiele in denen AMD Ellenlang nachoptimieren musste, bis die auf einem selben Level waren ?? Teilweise, waren die Mittelklasse Modelle in den Benches schneller als die Highend Modelle von AMD.

Alleine in Project Cars war eine GTX 760 so schnell wie eine HD 7970....

Hairworks, war auch alles andere als "gleich performant "
Nur weil, es zu Beginn ein offener Standard ist, heißt es nicht dass sich Nvidia daraus keinen Schuh macht, der nur ihnen passt..

Edit:
Wenn du dich mit Directx12 Raytracing auseinander gesetzt hättest, dann würdest du wissen dass bereits AMD im März diesen Jahres ihre proprietäre Umsetzung mittels einer Demo und eines Treibers angekündigt hatte.

Ja für Entwickler..

Abgesehen davon: Ich zitiere mal CB:
"Noch schwerer als in Spielen wiegt dabei aber der Verlust an Details, die insbesondere auf die fehlende oder fehlerhafte Ausleuchtung zurückzuführen sind. Und wie Microsoft mit DirectX Raytracing soll der neue AMD Radeon ProRender das Problem in Zukunft durch die gleichzeitige Anwendung von Rasterisierung und Raytracing angehen. Umgesetzt in den Compute-Shadern auf Basis von Vulkan. AMD nennt das „Real-Time Ray Tracing“. "

Abgesehen davon, ist Radeon ProRender Quelloffen. Die Tatsache, dass es auf Vulkan basiert, kann die Technik nicht allzu Proprietär machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: russianinvasion
Verstehe nicht warum der Bericht von OCP nicht eine News wert ist, hört sich einem Skandal an oder ist das alles normal so??
 
@Inxession Das ist der letzte Schritt dazu, IT-Portale zu verkleideten Verteilern für Pressemitteilungen von nVidia zu machen. Selbst wenn die Redakteure die Karten im freien Handel kaufen, können sie sie nicht mit den entsprechenden Treibern testen.

Das ist das Gegenteil des Verhaltens von jemandem, der ein hochwertiges Produkt vorstellen wird, das in offenen Vergleichen die Konkurrenz zersägt. nVidia scheint ja echt ganz schön die Muffe zu gehen.
 
McLovin14 schrieb:
Dann muss man vermutlich ein paar Wochen nach Marktstart warten, bis heise die Karten gekauft und unabhängig getestet hat.

keinem Bericht über NVIDIA Produkte mehr glauben schenken.

Ich werde keine Berichte über NVIDIA Produkte mehr lesen, wenn nicht vollkommen klar ist, das die Redaktion diesen NDA nicht unterschrieben hat. Ich brauche keine Fake Tech News.
 
  • Gefällt mir
Reaktionen: Yar
Zurück
Oben