News GeForce RTX übertakten: Turing skaliert kaum mit der Leistungsaufnahme

SKu schrieb:
Mehr GPU-Takt bringt halt nur nicht viel, wie schon bei Pascal.
Ich muss CB aber korrigieren. Die schnellsten 1080 Ti haben effektiv 12.000Mhz, da zwischenzeitlich auch Karten mit schnelleren GDDR5X Chips auf den Markt kamen.

offiziel sind die schnellsten mit 14xxMHz... aber alle neueren GUTEN 1080Ti haben den schnelleren speicher drauf, sieht man dran wenn sie sich auf über 1550MHz takten lassen.

bei mir greift leider die temparaturbremse, weil solange die karte unter 40°c. bleibt, liegt sie bei 2150MHz GPU... bei 62°c. ist sie dann schon auf 2063MHz runter(welcher auch gehalten wird, da die karte nicht wärmer wird) :freak: darum werde ich sie wohl auch bald unter wasser setzen.... bei 2150, und speicher dürfte unter wasser auch noch nen wenig besser gehen als die 6318MHz jetzt, sollte sie locker mit der 2080Ti FE mithalten können(sollten +28% im schnitt ergeben ggü. ner 1080Ti FE) :)
 
Zuletzt bearbeitet:
NMA schrieb:
Dabei sollte doch gerade beim HBM Speicher einer der möglichen stärken, unter anderem, die Platz Ersparnis sein...

Ich denke, das dies eine fehlgeleitete Hoffnung ist. Selbst wenn HBM irgendwann der Standard sein wird, so werden Grafikkarten nicht durch die Bank kleiner werden. Die Kunden haben sich an eine gewisse Größe für Grafikkarten gewöhnt. Die Hersteller werden diese Größe weiterhin ausreizen, um bessere Kühllösungen zu ermöglichen, selbst wenn die PCBs in Zukunft wieder sehr viel kleiner werden könnten. GDDR ist ja auch nachweisleich kein Hindernis, um diese kleinen Grafikkarten zu konstruieren. Die eigentliche Herausforderung liegt in der Kühlung. Das ist und wird auch mit HBM nicht anders werden.
 
  • Gefällt mir
Reaktionen: Smartcom5, NMA, .Sentinel. und 2 andere
Im Grunde sind schon seit ein paar Gens die Zeiten für Partner vorbei in denen man extrem viel raus holen konnte, das ist schon da nur einzelnen Premium-Modellen gelungen.

Im Grunde nimmt sich das alles kaum noch was.
Ich finde Nvidia hat das noch verschärft indem sie selbst so ne Premium Variante mit immer weiter verbessertem Kühler anbieten.

Inwieweit sich das mit den Partnern vereinbaren lässt auf Dauer, wird man sehen.
Zufrieden werden die wohl damit nicht sein.

Früher war das noch ganz anders, da war es quasi Pflicht ein Partnermodell zu kaufen, die Referenz-Designs waren oft richtig kacke und man hat noch einiges raus geholt, sowohl beim Lüfter, als auch bei der Technik.
Man merkt es aber auch bei CPUs, OC ist kaum noch lohnenswert und der Verbrauch steigt dann ab Punkt X ins unermäßliche, wegen der Konkurrenz drücken die Hersteller da schon vorab aufs Maximum, bzw. nah ans Limit, sieht man ja auch aktuell sehr gut bei Intel und AMD. Da geht kaum noch was.
Hat alles Vor- und Nachteile.

Ich persönlich finde für den Verbraucher derzeit eher weniger, kann man sich eben auch das Referenz-Design kaufen. Fraglich halt, inwieweit es dann noch 10 verschiedene Varianten braucht, die sich so oder so kaum noch unterscheiden.
 
  • Gefällt mir
Reaktionen: .Sentinel., SVΞN und Mcr-King
Richtig deswegen ist es vollkommen egal ASUS MSI Giga alles der selbe eSchrott wo zu den Käse kaufen es gibt keine unterschiede im Gegenteil. Was Qualität und so angeht nehmen sie sich auch nix deswegen überflüssig.
 
m.Kobold schrieb:
Falsch, die Chips wurden immer schon selektiert.

Früher haben dann die Boardpartner die Chips selbst selektiert und jetzt macht das nvidia... fakt ist und bleibt
das der Kunde am ende für die Selektierten Chips den Aufpreis gezahlt hat, ergo für uns selber hat sich nix im bezug auf diesen Punkt geändert.

Das ist eine ernst gemeinte frage, weil ich außer von Usern bzw. einmalig bei der 980ti von EVGA, noch nie etwas zum selektieren gefunden habe.
Hast du irgend eine Quelle?
Bisher nehme ich das nur als Mythos ohne jegliche Beweise wahr.
 
  • Gefällt mir
Reaktionen: Mcr-King
@desnatavo
Ich denke, da machst Du Dir zu viel Kopf um dieses klassische Henne/Ei Problem.

Ohne Turing Grafikkarten kein Raytracing und wenn man Raytracing eingebaut hat, war es nicht test- und optimierbar, da da die Grafikkarten nicht vorhanden waren.
Und warum sollte man das Feature vorab einbauen, wenn es keine Grafikkarten gibt, die es unterstützen?

Sicherlich wissen die Studios, dass das Feature kommt.
Aber testen und den Code optimieren kann man erst jetzt, wo es die Karten auch gibt.

Ich würde auch keine Benches mit Beta Code veröffentlichen wollen als Unternehmen.
 
  • Gefällt mir
Reaktionen: betzer
@Luxmanl525 danke für den Artikel. Liest sich wirklich gut. Dann kann ich den Teil zu den Spannungsspitzen ja jetzt immer verlinken, wenn mir Mal wieder niemand glaubt, dass man vielleicht nicht unbedingt ein 500 Watt Netzteil für jede Grafikkarte nutzen sollte weil man ja so viele Reserven hat und die Karte ja nur 200 W verbraucht ...
Habe bisher auch immer Artikel mit den Spannungsspitzen von der Vega 56 dazugepackt aber hier wollen einige nicht hören ...
Edit: der andere Artikel stellt es jetzt wieder aus anderer Perspektive dar. Also bleibt wohl bloß das Fazit : keine China-Böller!
https://www.tomshw.de/2014/09/10/le...kkarte-netzteil-wechselwirkung-messung/all/1/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5 und Mcr-King
Naja, ich nehm tzd. lieber eine Graka übertakte diese, erhalte 10% Leistungs+ und 20-30% Verbrauch und höre diese nicht werken :p

Aber in ein paar Wochen/Monaten wird das schon aufgeklärt. Pascal war ja anfangs auch nicht direkt mit UV/OC unterwegs falls ich mich recht erinnere. Erfahrungen werdens zeigen.

@CB hoffentlich macht ihr einen Test mit OC/UV Pascsl Partnerkarten (bitte die guten...;)) vs RTX Turing OC/UV
 
Das ist ja als wenn Daimler AMG untersagen würde die Fahrzeuge zu Tunen !
Echt jetzt ?
 
@sverebom

Das ist eine durchaus realistische Sichtweise, auf den vorliegenden Sachverhalt.

Dennoch, so denke ich, wird der Markt für u.a. ITX zunehmend gewichtiger, da sich Systeme, diese möglichst kompakt und dennoch, eine gewisse Leistung aufweisen, immer mehr in den möglichen Fokus potentieller Kunden rücken, da "besser" verfügbar und breiter aufgestellt.

Und da hätte ich gerne eine Vega gesehen, weshalb ich für eine derartige, derzeit vorliegendene Entscheidung, keine wirkliche, offizielle Erklärung habe.
Wie gesagt, ich stimme da Ihrem Gedankengang soweit zu, denn diese Sichtweise ist definitiv eine Möglichkeit, diese bei den Anbietern vorherschen kann.
Subventioniert könnte dies noch durch den Umstand der Marktverteilung werden, dieser aktuell, zu Gunsten von Intel und Nvidia ausfällt.
 
Da ich Generell keinen Grund zum Übertakten sehe, isset mir generell egal. RTX sowieso.
Ich glaube aber auch das die karten Generell schon nah an ihrer Grenze sind und daher die ganze Geschichte seitens Nvidia.
 
leonM schrieb:
Das Dumme ist halt, Reviews sollendem Verbraucher eine Information bieten anhand dessen er einen Kauf abwägen kann. Wenn man sich aber halt die Reviews anschaut und kaum bzw. keine richtigen(relevanten) Vergleich zwischen der alten und neuen GPU-Gen erhält, so ist es mehr als traurig. Wie schon von Leuten zig-fach gepostet, wäre einfach eine gescheite Custom von 1080TI als Vergleichswert zwischen den FE-Versionen angemessen gewesen, denn Nvidia sagte doch selbst, dass Sie ihre Strategie bzw. Version anders als bisher als eine OC-Version mit zum Teil selektieren Chips ansehen. Also was nützt mir dann ein Vergleich einer 1080 TI FE, die am unteren OC und PT läuft mit einer schon sehr am oberen Grenze angepassten 2080FE bze TI mit dem dafür auch benötigten Kühler. Verstehe nicht so ganz, dass es auf allen Reviewseiten kaum diese Vergleiche gab. Wenn da keine Vorgabe von Seiten "N" gab, dann weiß ich auch nicht, glaube kaum dass die ganzen Reviewer auf ganzer Linie in dieser Richtung versagt haben.

ja, man kann auch überpenibel sein oder das haar in der suppe suchen; nötigenfalls findet sich dann auch eines.
über was reden wir hier? über +- paar prozent, aber keine revolutionären maßstäbe...ob eine 2080ti gegenüber einer 1080ti in reviews nun 32% oder 37% schneller ist...also wenn das die kaufentscheidung beeinflusst oder man sich darüber nun aufregen möchte; in beiden fällen hat man ein wahrscheinlich ein mentales problem...
Ergänzung ()

desnatavo schrieb:
Dies ist das erste mal, dass die FE kaum noch Möglichkeiten (für die Partner) zum Übertakten und damit als Alleinstellungsmerkmal bietet.
Dahinter steckt die Erkenntnis, dass die ursprüngliche Leistung der 2080 Ti FE für den aufgerufenen Preis von ~1200 Euro zu gering ausfiel.
das ist überhaut das zweite mal dass es eine FE gibt - und bei der ersten FE "generation" wurde der schlechte kühler und ausbleibends OC für den aufgerufenen preis kritisiert.
das mit dem preis ist pure spekulation und keine erkenntnis.
bei dem aufgerufenen preis macht es den kohl wirklich nicht fett wenn die neue ti "nur" 32% statt 36% schneller ist als die alte. in beiden fällen sind 1200 euro einfach eine krasse hausnummer, aber derjenige der unbedingt das schnellste haben möchte, wird sich dann auch nicht daran stören..
 
Zuletzt bearbeitet:
anexX schrieb:
Hm, was bleibt den Partnern dann noch ? Tri-Lüfter Design (wie von GB und MSI umgesetzt) um nochmal kühlere Temps und geringere Lautstärke zu bringen, Custom PCB mit eventuell besserer Spannungsversorgung - das wars dann aber auch schon.
Würde mir persönlich reichen. Ich betreibe nur UV; niedrigere Temperaturen und entsprechend leise Lüfter sind mir wichtiger als Maximalleistung. Klar, die Basisleistung muss da sein, aber ich habe bei meinem Spielstil noch nie OC gebraucht.
 
  • Gefällt mir
Reaktionen: Smartcom5
kachiri schrieb:
Zumal die RTX-Modelle ja durchaus das Potential zu haben gut zu altern...

Das wäre die erste GPU Generationen seit der 8800GTX die das bei Nvidia tun würde ^^ die Speicherbestückung, der zu Launch bereits überholte Fertigungsprozess etc. Sprechen für mich eher für eine kurze Halbwertszeit bei Turing. Da werden wahrscheinlich die RTX Cores etc. Nicht viel dran ändern. Ist halt die erste Generation. Die Tesselation Leistung einer 5870 ist im Vergleich zu späteren Generationen auch unterirdisch, ob es die erste Generation mit Tesselation Hardwarebeschleunigung war ^^
 
  • Gefällt mir
Reaktionen: Mcr-King
Schlussendlich, hängt es von den Verkaufszahlen ab, ob und wie begeistert die Board Partner von den Restriktionen sind.

Im Grunde hat nVidia das ganze aber schon heftig geplant.

Man zwang die Board Partner mit GPP die Gaming Marken zu nV Only zu machen.
Die Großen haben den Deal angenommen.
Dann wurde GPP zurückgezogen. (Offiziell)
Dann kam die NDA Geschichte ...
Board Partner und Presse werden heftig gegängelt. (Denn wenn nVidia keine Vorteile durch die NDA Geschichte hätte, dann würde es diese auch nicht geben. PUNKT!)

Nun ist eine RTX Serie im Handel, die via Salami Taktik hoch gehyped wurde und vorbestellt werden konnte.

Die Ernüchterung und vor allem der Preis ist Groß ...

Sollten die Absatzzahlen nicht rosig sein, und die Board Partner auf Ihren zig verschiedenen Modellen sitzen bleiben, dann kommt das OC Verbot erstmal richtig zur Geltung und die Partner sind "pissed".

Bis auf die 2080ti hätte nVidia sich die Gen komplett sparen können.

Und die 2080ti ist quasi die neue Titan. Zumindest vom Preis her.

In der Mittelklasse, wie schon erwähnt, hat AMD zusammen mit dem Freesync Joker und fallender Preise, damit ernsthaft eine Chance eher Anteile zu gewinnen als zu verlieren.

RX 580 + Freesync
Vega 56 + Freesync ...

Eigentlich für Jedermann ausreichend Performance.
 
  • Gefällt mir
Reaktionen: Mcr-King
Inxession schrieb:
Schlussendlich, hängt es von den Verkaufszahlen ab, ob und wie begeistert ...

RX 580 + Freesync
Vega 56 + Freesync ...

Eigentlich für Jedermann ausreichend Performance.

Wenn der Polaris Nachfolger etwa auf 56er-Niveau a 299,-€ rauskommt reicht das für Viele.
Forza4.jpg


Und bei AMD gibt es ne vernünftige Vram-Ausstattung + HBCC kostenlos.
Bzgl. Vram ist NV echt kontraproduktiv. Immer mehr TFlops mit weniger Vram ?!
Da wird Nichts gut altern.
 
GERminumus schrieb:
Ich zitiere mich mal aus einem anderem Thread:


Ich werde das Gefühl nicht los in einem Dilemma zu sitzen.
Entweder den technisch schlechteren Monitor aber dafür mit bis zu 30% mehr fps (1080ti zu v64)

Oder den technisch ansprechen Monitor mit weniger GPU power.

Als NVIDIA Kunde finde ich keine so richtig ansprechenden Monitore ( zumindest zu viele Kompromisse in der jeweiligen Preisklasse)
Und wenn ich auf einen Freesync Monitor setze, gibt es keine entsprechende GPU ( wäre die v64 doch nur auf 1080ti Niveau)

Nimm nen 144hz Monitor, da brauchst eh kein F/G-Sync :-/
Merkst den Unterschied eig nicht.

Zumindest ich nutze nen F-Sync Monitor und die kurze Zeit als ne AMD drinnen war, habe ich auch nichts "besseres" erlebt als mit 144hz ohne F/G Sync..
Ergänzung ()

GerryB schrieb:
Wenn der Polaris Nachfolger etwa auf 56er-Niveau a 299,-€ rauskommt reicht das für Viele.
Anhang anzeigen 711457

Und bei AMD gibt es ne vernünftige Vram-Ausstattung + HBCC kostenlos.
Bzgl. Vram ist NV echt kontraproduktiv. Immer mehr TFlops mit weniger Vram ?!
Da wird Nichts gut altern.

Was solls uns der Bench zeigen? Das perfekte AMD-Game rausgepickt und dann die allgemeine Performance besprechen?

War doch schon bei FH3 so, dass Vega 64 deutlich schneller als eine 1080 war z.B.
Ist in anderen Titeln eben nicht der Fall.

Vega 56 finde ich auch uninteressant.
Vega 64 ist ziemlich genial, gab letztens ein Angebot inkl. Games um 399€ --> Auf solche Angebote sollte man warten, wenn man denn warten kann.
 
Zuletzt bearbeitet:
Caramelito schrieb:
Nimm nen 144hz Monitor, da brauchst eh kein F/G-Sync :-/
Merkst den Unterschied eig nicht.

Zumindest ich nutze nen F-Sync Monitor und die kurze Zeit als ne AMD drinnen war, habe ich auch nichts "besseres" erlebt als mit 144hz ohne F/G Sync..
Ergänzung ()



Was solls uns der Bench zeigen? Das perfekte AMD-Game rausgepickt und dann die allgemeine Performance besprechen?

War doch schon bei FH3 so, dass Vega 64 deutlich schneller als eine 1080 war z.B.
Ist in anderen Titeln eben nicht der Fall.

Vega 56 finde ich auch uninteressant.
Vega 64 ist ziemlich genial, gab letztens ein Angebot inkl. Games um 399€ --> Auf solche Angebote sollte man warten, wenn man denn warten kann.

Kommt das nicht auf die zu spielenden Spiele an?
Bei Doom oder Shootern im generellen hast du natürlich sowieso hohe FPS die nahe an der refreshrate sind.
Aber bei Witcher 3 usw auf WQHD brechen die FPS doch mal ein, da lohnt doch Freesync/Gsync?!
 
Inxession schrieb:
Schlussendlich, hängt es von den Verkaufszahlen ab, ob und wie begeistert die Board Partner von den Restriktionen sind.

Im Grunde hat nVidia das ganze aber schon heftig geplant.

Man zwang die Board Partner mit GPP die Gaming Marken zu nV Only zu machen.
Die Großen haben den Deal angenommen.
Dann wurde GPP zurückgezogen. (Offiziell)
Dann kam die NDA Geschichte ...
Board Partner und Presse werden heftig gegängelt. (Denn wenn nVidia keine Vorteile durch die NDA Geschichte hätte, dann würde es diese auch nicht geben. PUNKT!)

Nun ist eine RTX Serie im Handel, die via Salami Taktik hoch gehyped wurde und vorbestellt werden konnte.

Die Ernüchterung und vor allem der Preis ist Groß ...

Sollten die Absatzzahlen nicht rosig sein, und die Board Partner auf Ihren zig verschiedenen Modellen sitzen bleiben, dann kommt das OC Verbot erstmal richtig zur Geltung und die Partner sind "pissed".

Bis auf die 2080ti hätte nVidia sich die Gen komplett sparen können.

Und die 2080ti ist quasi die neue Titan. Zumindest vom Preis her.

In der Mittelklasse, wie schon erwähnt, hat AMD zusammen mit dem Freesync Joker und fallender Preise, damit ernsthaft eine Chance eher Anteile zu gewinnen als zu verlieren.

RX 580 + Freesync
Vega 56 + Freesync ...

Eigentlich für Jedermann ausreichend Performance.

Wie AMD kein NDA hätte, wie AMD die Treiber nicht auch zurück behalten würde.

Vega 56 Leistung reicht für jeden? Nur nicht für die die in 4K Zocken wollen, nur nicht für die die Max Qualität haben wollen, nur nicht für die die gute VR Leistung haben wollen, nur nicht für die die relativ sparsame Karten haben wollen. Für den Rest reicht die Karte, das stimmt natürlich! Aber nur so eine logische Info, das alles sind so wie so keine RTX Kunden.

Es gibt kein OC Verbot, Turing bringt einfach nicht mehr hin, das dürfte in erster Linie an der Grösse der GPU und dem 12nm Herstellungsprozess liegen.

Gerade mit Turing macht GPP durch aus Sinn, da nur diese Karten RT wirklich beherrschen. Jetzt können die Konsumenten Grafikkarten unter dem Label "Gaming" (Reines Beispiel) Grafikkarten kaufen die entweder RT können oder nicht. Das ist purre Kunden Verwirrung, AMD hofft doch nur etwas den Trittbrett Fahrer spielen zu können.

Ja die 2080 macht gar keinen Sinn, ist nur die zweit schnellste Grafikkarte und man könnte meine das JEDER schon eine 1080ti hat... Mit deiner Logik wäre bei jeder neuen Grafikkarten Generation die Modelle unter dem vorherigen Topmodell Nutzlos.

Was da zu teil bei den Haaren herbei gezogene Aussagen von User kommen ist wirklich nicht mehr schön. :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aduasen
Zurück
Oben