News GeForce RTX übertakten: Turing skaliert kaum mit der Leistungsaufnahme

Na dann mal her mit den "billig" editions der 2080 ti ohne A für unter 1000€, dann denk ich vieleicht nochmal über einen Kauf nach. ;)
 
  • Gefällt mir
Reaktionen: .Sentinel.
Hallonzusammen,

@ Krautmaster

Krautmaster schrieb:
wie war es denn "üblich"

Guter Einwand, denn meine Silben sind etwas undeutlich, mißverständlich ausgedrückt. Nun, so wie bei den vorhergehenden GPU-Generationen im Bezug auf Übertaktungen. Vor allem auf die Custom-Herstellermodelle mit eigenem Kühlkonstrukt bezogen. Wenn du bei Pascal z. b. siehst, hatten nicht wenige Hersteller mehrere Modelle mit eigenem Kühler am Start, die jeweils unterschiedlich stark Übertaktet waren.

Evga hatte z. b. bei manchen Modellen - GTX 1070 / Ti / 1080 / Ti - pro Modell wenigstens 3 in der Übertaktungsstärke unterschiedliche Modelle mit dem jeweilig gleichen Kühler, die sich nur im Übertaktungsgrad unterschieden.

Bei Zotac war es ähnlich, nur eben nicht 3 Modelle betreffend innerhalb einer Modelllinie. Andere Custom-Kühlerhersteller handhabten es genauso, nur eben mit nicht so vielen Modellen einer Linie.

So long...
 
Zuletzt bearbeitet:
@ZeroZerp
An Battlefield 5 sieht man doch sehr gut, das es noch nicht funktioniert, wie man gedacht hat. Dice hat die RT Effekte deutlich reduziert damit das Spiel überhaupt spielbar ist.
Vielleicht sind ja dann die 30xx Karten schnell genug dafür.
 
GERminumus schrieb:
Ich kann mich seit der 780ti an keine langweiligere GPU erinnern.

Also was OC angeht ist die 780Ti aber im Gegensatz zu Pascal und vor allem Turing ein wahres wunder!

Auf meiner luftgekühlten GTX 780Ti habe ich schon 1365mhz GPU Takt erreicht.(oder anders gesagt ca. 47% mehrl als die 928mhz die Nvidia angibt bzw. fast 40% mehr als das was sie wirklich erreicht wenn sie warm wird) Und da limitiert der Kühler schon zu 100% bei mir. Die einzige Modifikation ist ein Bios was eine höhere TDP und minimal mehr Spannung zulässt. Aus OC sicht war die 780Ti mit dem GK110B ziemlich spannend. ;)

Ansonszen sehe ich es bei Turing nicht so schlimm. Man bekommt ab Werk Karten, die ziemlich nahe am maximalen Sind, ohne völlig außerhalb des optimalen Bereichs zu liegen (wie bei AMD gerne mal). Aus Kundensicht eigentlich optimal, da eh viele nicht übertakten möchten.
 
  • Gefällt mir
Reaktionen: ZeusTheGod
Luxmanl525 schrieb:
Guter Einwand, denn meine Silben sind etwas undeutlich, mißverständlich ausgedrückt. Nun, so wie bei den vorhergehenden GPU-Generationen im Bezug auf Übertaktungen. Vor allem auf die Custom-Herstellermodelle mit eigenem Kühlkonstrukt bezogen. Wenn du bei Pascal z. b. siehst, hatten nicht wenige Hersteller mehrere Modelle mit eigenem Kühler am Start, die jeweils unterschiedlich stark Übertaktet waren.

das ja, aber absolut gesehen ist die Takt Wall quasi dieselbe, vermutlich schlicht Prozess bedingt. Natürlich sind die Basis Taktraten etwas höher, dadurch der Headroom kleiner. Meine 980 TI lies sich noch um 25-30% pushen, bei der 1080 Ti waren es sicher auch um 20% und nun sind es nur noch ~10-15% - was aber erstmal eher an den gestiegenen Baseclocks liegt anstatt und weniger mit Tauglichkeit der GPU zu tun hat.

Ein 9900K dürfte auch weniger Headroom haben als ein 4770K, bezogen auf die prozentuale Mehrleistung die man durch OC raus holt.

12% mehr Dampf bei der 2080 Ti entsprechend ja auch quasi 20% mehr ausgehend von einer 1080 / Vega.
Ergänzung ()

Shoryuken94 schrieb:
Also was OC angeht ist die 780Ti aber im Gegensatz zu Pascal und vor allem Turing ein wahres wunder!

gut, damals musste Nvidia auch keinen drauf setzen und man konnte die TI schlecht schneller machen als die TITAN. Außerdem wusste man genau dass man mit selbem Chip später noch nachlegen wollte / musste und somit hat man der 780 TI da erstmal wahnsinnig viel Taktspielraum eingeräumt, sehr konservativ getaktet.

Deswegen kann man auch heute noch schnell 25-30% auf die Balken im Rating aufschlagen wenn es um die 780 TI oder auch 980 TI geht (da eher 20-25%, was immer noch ne Menge ist)
 
Find ich gut von Nvidia endlich mal ne brauchbare FE die es auch Wert ist zu kaufen, und deshalb wird es auch eine FE bei mir :)

Außerdem gefällt mir das Design diesmal deutlich besser, als die Custom Modelle.
 
m.Kobold schrieb:
Boah dieses extreme geheule... ist ja kaum noch auszuhalten vor lauter kiddies/erwachsene die sich auf kleinkind niveau begeben.

10*0 FE scheiss kühler
20*0 FE endlich besserer Kühler und die trash kiddies meckern rum das die armen Boardpartner nichts mehr hinten reingeschoben bekommen.

Wenn die Costumpartner sich nicht anstrengen wird halt die FE gekauft oder der Costumpartner mit den besten Garantiebedingungen und guten Kühler.

Ich frag mich ob Computerbild/Gamestar ihr Forum geschlossen hat oder warum werden hier nur noch uninformierte trash Kommentare gepostet!?

Nee ich kaufe dann auch keine FE sondern lieber nix oder eine Konsole Punkt aus.

Dass hat nix mit heulen zu tun sondern mit Prinzipien Bis hier hin und nicht weiter siehe Apple/Samsung/Intel....

Nur mussten dass mehr machen.
 
Krautmaster schrieb:
gut, damals musste Nvidia auch keinen drauf setzen und man konnte die TI schlecht schneller machen als die TITAN.

Die 780Ti ist schneller als eine Titan ^^ die Titan Black taktet auch nicht viel höher, paar mhz. Die hat nur 3GB mehr Speicher und es gibt keine Customs. Hat eher energiespargründe. bei Standardtakt liegt die Karte schon bei 250 Watt und reizt die TDP gut aus. Das mit Kepler aufgebaute "effizienzs und ergiespar Image" wollte man nicht gleich wieder kaputt machen, nachdem man für Fermi so einstecken musste.

Aber es ist schon beeindruckend, was man aus dem ollen 28nm Silizium rausholen kann. Bei Kepler und Turimg ist ja trotz eklatant mehr Energie nicht mehr viel drin. Kepler hat noch ganz gut mit der leistungsaufnahme skaliert. Wenn man mehr reingesteckt hat, hat man nicht nur Hitze, sondern auch leistung rausbekommen. Liegt zum teil wahrscheinlich ach daran, dass die Architektur einfacher ist und Leistung halt nur mehr Takt und nicht irgendwelche architektonischen Raffinessen entsteht und das Big Kepler im gegensatz zu späteren Generationen nicht so extrem bandbreiten limitiert ist! Für die GPU Leistung steht dort ziemlich viel bandbreite zur verfügung.
 
Es ist völlig egal wie man es dreht und wendet, 30% mehr Leistung bei einem 50% höherem Preis ist mit GAR NIX zu rechtfertigen, außer das mangels Konkurrenz damit die Kunden gemolken werden und sonst nichts.
 
  • Gefällt mir
Reaktionen: firestar1981 und Stuntmp02
geist4711 schrieb:
das einzige was die AMD-karten nicht schlagen, ist die 1080ti, das war garnicht schlecht, aber da musste man sich ja immer düber aufregen.
jetzt gibt's die 20xx generation mit wenig mehrleistung aber preisaufschlag ohne ende und AMD ist natürlich immernoch 'viel zu langsam'....

Dafür hat AMD aber auch ein Jahr länger gebraucht...
Und hat es dann halt trotzdem nicht an die Ti rangeschafft. Und jetzt sind es zwischen 2080 Ti und Vega 64 auch gut 80% in 4k. In WQHD immerhin auch noch 52% (wobei da im Diagramm die OC mit einer Non-OC 2080 Ti verglichen. Ich meine gut - NV will auch gut 140% mehr dafür haben... Aber auf der anderen Seite vergleichen wir da auch schon wieder Straßenpreis einer GPU die 1 Jahr alt ist und einer GPU die neu am Markt ist. Ich finde diese Vergleiche unfair.

Zumal die RTX-Modelle ja durchaus das Potential zu haben gut zu altern... Bis AMD was nachlegt dürfte im Zweifel schon die nächste Generation in den Startlöchern stehen. AMD ist derzeit ziemlich weit hinten dran und das tut weh - für AMD. Weil die müssen ihre GPUs verscherbeln.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ desnatavo



Da liegst du falsch. Was allerdings offenbar daran liegt, daß du nicht auf dem Stand der Dinge bist. Nvidia hat sich die besten Übertaktungsfähigen GPU`s selbst reserviert für ihre FE-Modelle. Anders ausgedrückt, es ist Absicht, daß die Custom-Kühlkonstrukthersteller nicht mehr die Abstände wie früher herstellen können. Durch das besagte Prozedere von Nvidia bekommen dieselben schlichtweg nur sehr eingeschränkt Übertaktbare GPU`s.

Lies dir den Artikel auf Tom`s Hardware durch, den ich in meinem letzten Beitrag verlinkt habe. Danach bist du deutlich Schlauer.

So long....

Genau so ist es. Danke noch für deine Bestätigung!
Besten Gruß
 
AMD muss selbst dann seine GPUs verscherbeln, wenn sie konkurrenzfähige Produkte besitzen.
Das beste Beispiel dafür ist RX580 <-> GTX1060.
 
kachiri schrieb:
Dafür hat AMD aber auch ein Jahr länger gebraucht...

Und nun bringt nVidia eine 2070 auf den Markt, die mit der Leistung bei einer Vega64/1080 liegt und will dafür 650 €. Und nun?

kachiri schrieb:
Und hat es dann halt trotzdem nicht an die Ti rangeschafft. Und jetzt sind es zwischen 2080 Ti und Vega 64 auch gut 80% in 4k. In WQHD immerhin auch noch 52% (wobei da im Diagramm die OC mit einer Non-OC 2080 Ti verglichen. Ich meine gut - NV will auch gut 140% mehr dafür haben...

Traurig, dass der Preisaufschlag so hoch wurde, dass Vega eine bessere FPS pro € Leistung hat.

kachiri schrieb:
Aber auf der anderen Seite vergleichen wir da auch schon wieder Straßenpreis einer GPU die 1 Jahr alt ist und einer GPU die neu am Markt ist. Ich finde diese Vergleiche unfair.

Man vergleicht immer Straßenpreise. Es juckt einen Käufer nunmal nicht was irgendwelche Karten für einen UVP hatten. Man vergleicht Leistung X die man bei Preispunkt Y kriegt. Und da schneiden halt die RTX Karten schlecht ab. Die einzige Karte mit Daseinsberechtigung ist die 2080 Ti, da sie wenigstens auch mehr Leistung bietet, als bisher vorhanden war.


kachiri schrieb:
Zumal die RTX-Modelle ja durchaus das Potential zu haben gut zu altern... Bis AMD was nachlegt dürfte im Zweifel schon die nächste Generation in den Startlöchern stehen. AMD ist derzeit ziemlich weit hinten dran und das tut weh - für AMD. Weil die müssen ihre GPUs verscherbeln.

Ob AMD das weh tut können wir hier gar nicht beurteilen. AMD hat sich mit voller Absicht entschieden, Entwickler von Vega abzuziehen um das Ryzen Team zu unterstützen. Nun da Ryzen fertig gestellt ist und sogar schon Zen 2 im Kommen ist, hat man halt auch wieder mehr Entwickler + CPU Entwickler zum nächsten GPU Projekt geschoben.

Und ob die RTX Modelle gut altern können, steht in den Sternen. Grundsätzlich kann man das bezweifeln, da die RT Performance schnell nicht mehr ausreichend sein kann, womit man dann die 2000er Serie als eine Zwischengeneration sehen kann, welche keine besonders hohe Lebenserwartung hat. Stichwort 7nm Produktion.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, karl_laschnikow und Inxession
sverebom schrieb:
Selbst wenn Raytracing in der nächsten Generation bis in die Mittelklasse hinein hochperformant laufen würde - was nicht geschehen wird, denn die Leistungsanforderungen sind immens - wird sich Raytracing nicht durchetzen, weil es einfach an der Marktdurchdringung scheitern wird. Solange AMD und die Konsolen nicht mit im Boot sitzen, wird RT eine Nische bleiben.

Die Marktdurchdringung kommt mit entsprechend flächendeckend verfügbarer Hardware wahrscheinlich früher oder später von allein. Hier gehts zwar im Grunde um etwas was primär das NV properitäre Hardwarebackend für Microsoft DXR sein möchte. Aber wir haben (als bald) eine API, wir haben eine Umsetzung (RTX) und wir werden früher oder später auch Games haben, die das nutzen.
Wie andere Hardware dann die Softwareanforderungen umsetzt (AMD oder Intel) - steht auf einem völlig anderen Blatt. Selbst ein RT-Beschleuniger in dedizierter Form wäre technisch denkbar.
MMn versteift man sich bei der RT-Thematik hier viel zu sehr auf NV - NV ist nur der Hardwarelieferant und der, der die Sau gerade durchs Dorf treibt!

Die große Preisfrage bleibt, was machen die Entwickler daraus? Das lässt sich absolut nicht abschätzen.
Wahrscheinlich ist, dass es auf absehbare Zeit so oder so einen RTX Off Mode geben wird. Das heist, man spart keine Zeit beim erschaffen des Kontents - die ganzen "Fakes" müssen also trotzdem ins Spiel um RTX Off eben abdecken zu können.
Was ich mir mittelfristig vorstellen kann ist eben eine Art BQ-Verbesserung in den höheren Detailstufen. Man sieht jetzt schon "nur" noch meist sehr wenig Unterschied zwischen den oberen beiden Detailstufen. Der nächste Schritt eine in Echtzeit erzeugte Licht/Schattensimulation da draufzulegen anstatt vorgebackene Schatten und Fakebeleuchtung ist für Ultra-Detail-Spieler schon ein großer Schritt. Die SotTR Videos hauen mich da sogar eher vom Hocker als das Spiegelzeugs bei BF5 - weil einfach Sachen, die du dort nicht direkt hinfaken kannst. Entweder das Licht ist in Echzeit dynamisch erzeugt oder nicht.
Was dem geneigten Betrachter zumeist fehlt ist der Blick fürs Detail - ein Shooter ala BF5 ist zudem mMn auch das falsche Objekt zum Aufzeigen -> weil dort gehts nicht um Optik. Bei nem SinglePlayer Game ala SotTR hingegen kommt das viel eher zum tragen.

RYZ3N schrieb:
Es gibt nicht einen Gamer da draußen, der einen Highend-PC und einen entsprechenden UHD/4K Monitor (oder sei’s nur WQHD) sein Eigen nennt und dann für RT-Effekte in FullHD spielt.

Es macht doch gar keinen Sinn, nur für Raytracing alle anderen Vorteile einer hohen Auflösung über Board zu werfen.

Das ist mMn ein Denkfehler - denn der RT-Leistungsbedarf kommt in aller erster Linie erstmal unabhängig der Renderauflösung zum tragen. Du kannst die Auflösung einfach hoch und die Rays per Pixel runter skalieren und fertig. Raytracing ist nicht wie Rastergrafik in dem Sinne dass du mehr Pixel berechnest um mehr Bild zu sehen. Um so mehr Strahlen du aussendest, um so besser wird das Ergebnis - in welcher Auflösung du das dann am Monitor darstellen wirst, ist erstmal ne zweite Baustelle.
-> da es aber kein RT wie bei nem 3D Renderer aus dem Content-Creation Bereich ist sondern ne Hybrid Lösung kommt natürlich klassische Raster-Anforderung oben drauf. Um UHD zu stämmen muss die Karte natürlich UHD ohne RT Zusatz erstmal hinbekommen.

Aus Mangel an echten Testmöglichkeiten lässt sich da im Moment schwer beurteilen. Es gibt Null Infos über die Leistungsanforderungen.
Technisch gesehen kannst du 1:1 die selbe Anzahl strahlen von nem FHD großen Bild nehmen und auf UHD aussenden und hast im Endeffekt ziemlich exakt die gleiche Leistungsanforderung rein auf den RT Teil. Ob das praktisch auch so funktioniert, werden wir dann sehen. Das denoising würde wahrscheinlich sogar ziemlich sauber funktionieren. Und je nachdem, wie die Software intern funktioniert gibt es möglicherweise eben sogar eine dynamische Anpassung der Strahlenanzahl... Also dort mehr Samples pro Renderpixel wo es sinnig ist, während an Stellen die sowieso im Schatten liegen ja viel weniger Strahlen benötigt werden. -> da kommt dann die "Intelligenz" der Umsetzung zum tragen. Spielraum in jegliche Richtungen gibts da zu Hauf.

Auch muss man mMn klar zwischen Licht/Schattenspielereinen und bspw. Spieglungen unterscheiden. Licht/Schatten Themen wo es primär um verdunkeln und aufhellen/erhellen geht sind bspw. weniger anspruchsvoll zu raytracen wie Spieglungen oder Spieglungen von Spieglungen von Spie...
-> all das lässt aber nur einen Schluss zu -> die Aussage, RT nur maximal mit FHD@2080TI kann als Pauschale überhaupt nicht aufgehen. Hier muss einfach dann das Entwicklerteam mitspielen und eben nicht Leistung in FHD sondern eben in 1440p oder UHD hin optimieren/ausrichten. Dann funktioniert das auch. Oder eben bei höherer Auflösung die Rays per Pixel verringern. Dank idR höherer Pixeldichte ist das meist auch verschmerzbar bis gar nicht sichtbar.
Nehm ich mal SotTR als Beispiel meint CB, dass die 2080TI irgendwo um die 50 FPS in UHD raushaut. Da jetzt noch RT oben drauf ist schon sportlich... Ob ausschließlich die RT/Tensor Cores da arbeiten ist zudem auch nicht klar. Und auch wie das vom Power Budget aufgeht. -> wenn da den ALUs keine Ahnung 30-40% Power Budget fehlen, gibts halt auch entsprechend weniger Bumms für den Rasterteil.

Ich würde erstmal abwarten. Kommt Zeit - kommt Raytracing ;) Und mit 7nm kommen auch schnellere GPUs für die, die es heute nicht brauchen/wollen
 
  • Gefällt mir
Reaktionen: ZeusTheGod und .Sentinel.
Wenn ich mir die PCGH Videos so ansehe, dann lohnt sich OC fast gar nicht.

Bei Witcher 3 und 99% GPU Load, 4K @ Max Settings. Der Unterschied zwischen einer 2080Ti FE @ Default und komplett bis zum Anschlag übertaktet (Chip+175Mhz/Memory+1000Mhz,PT:125%,+100% Voltage) sind ca. 7 FPS. Ob das im Alltag den Ausschlag gibt ist absolut fraglich. Wenn man einen Non-A Chip hat, dann kommt man mit OC vielleicht etwas über das Niveau einer Stock FE. Damit wäre der Unterschied fast null und den Aufschrei nicht wert.
 
Tramizu schrieb:
@ZeroZerp
Dice hat die RT Effekte deutlich reduziert damit das Spiel überhaupt spielbar ist.

Nö- Dice hat die Effekte lt. Aussagen des Chefentwicklers bis auf EINE SZENE nicht reduziert, sondern in der Intensität abgeschwächt, da der Effekt übertrieben unnatürlich aussah.

Grüße
Zero
 
Zuletzt bearbeitet:
fdsonne schrieb:
Ich würde erstmal abwarten. Kommt Zeit - kommt Raytracing ;) Und mit 7nm kommen auch schnellere GPUs für die, die es heute nicht brauchen/wollen

Davon gehe ich aus.

Denn wie ich schon sagte, Raytracing gehört ganz klar die Zukunft und es ist zwar nicht DIE, aber EINE der zukunftsweisenden Technologien im Bereich Gaming und Grafikdarstellung.

Bis es aber soweit ist, benötigt man keine RTX Grafikkarte, die für 50% Aufpreis nur 30% mehr Leistung bietet und aktuell noch von keinem einzigen Spiel unterstützt wird.

Nicht „benötigt“ bedeutet nicht, dass man sie nicht haben „möchte“ und genau das finde ich legitim. Wer Spaß an einer 2079/80/80 Ti hat, soll sie sich kaufen, ich finde das super.

Aber seitens NVIDIA ist dennoch alles schiefgegangen was hätte schiefgehen können.

Marketing und Außendarstellung waren/sind katastrophal, die Spielepartner nicht auf Kurs, die Patches noch nicht verfügbar.

Das hätte ich so nicht bin NVIDIA erwartet.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: .Sentinel.
Fliz schrieb:
Ja warum Partner mitverdienen lassen, wenn man das auch selber kann.. Wird sich NV denken.

Darum geht es nicht. AMD ist keine Konkurenz. Und deshalb möchte man erst recht keine in den eignen Reihen schaffen. Willkommen im Monopol. Sie verkaufen die Chips sowieso an die Board-Hersteller und ob der Kunde eine FE kauft oder eine Custom spielt für nVidia überhaupt keine sonderliche Rolle. nVidia verdient ja das gleiche. Der Chip bleibt gleich. Der Boardpartner kann vermutlich aus nvidia sicht genügend über bessere pder günstiger Kühl- und Spannungslösungen glänzen und dadurch seine Marge steuern. Schlechter für die Boardpartner. Vielleicht auch schlechter für den Kunden. Aber nVidia verkauft so genauso viele Chips, oder vielleicht sogar etwas weniger, für die gleichen €uros. Sprich die Marge wird noch besser. Nur sind die Chips halt etwas langsamer und bissl teurer. Der Chip wird nur nicht so schnell an seine pysikalischen Grenzen getrieben.

Erst müssen die alten Pascal Chips weg. Erst muss AMD liefern. Auch jede andere Firma, auch AMD würde bei einem Vorsprung "drosseln", alles andere wäre weniger Profitabel. Hat man doch auch bei Intel und die Zeit zwischen von FX bis Ryzen gesehen.
 
Zuletzt bearbeitet:
RYZ3N schrieb:

Eine mögliche 2060 wird wohl nur eine GTX werden, in Sachen Raytracing eh nicht genug Performance liefern und muss sich dann für (ausgehend von der 2070 für 640,— Euro) vermeintlich 400-500,— Euro mit einer Vega 64 duellieren.
Korrigiere mich, aber bisher weiß noch wirklich Keiner, ob die 2060 nicht bloß eine GTX statt einer RTX wird – und damit in Folge gar nicht weder über KI-AA noch Tensor-Cores für RT verfügt, oder?

Macht ja auch absolut keinen Sinn noch wesentlich weniger RT-Leistung überhaupt zu verbauen, als die RTX 2080 Ti schon nicht auf die Straße zu bringen vermag. Ich zumindest sehe vorerst einmal keine RTX-Karten unterhalb der RTX 2070. Und vorhin kam übrigens die Meldung rein, daß die G/RTX 2060/2050 gar frühestens 2019 erscheinen werden …


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: CBL und SVΞN
Zurück
Oben