News Nvidia Turing: Spiele-Benchmarks der RTX 2080 Ti mit Fragezeichen

EK hat seit heute morgen die passenden blocks und backplates vorbestellbar. Kann losgehen! Bin gespannt was oc geht.

Blick auf die kompabilitaetsliste zeigt das 2 evga customs auch nur ref design mit anderem kuehler sind
 
StefVR schrieb:
Bin gespannt was oc geht.

ich hatte ja noch keine in der hand, wenn sie sich aber ähnlich verhalten wie intel cpu´s wird da schon was gehen. ohne avx rennt der intel auch toll schnell, vergleichbar mit einer 2080ti ohne verwendung von tc und rt cores. aber abwarten und tee trinken.

mfg
 
ZeXes schrieb:
Hat die ComputerBase Redaktion eigentlich schon ihre Karten zum testen bekommen?
Das fällt unter das NDA, da wirst du keine offizielle Antwort bekommen. Und genau deswegen kannst du davon ausgehen, dass CB Karten zum testen hat. Ansonsten wären sie ja nicht an das NDA gebunden.
 
  • Gefällt mir
Reaktionen: [wege]mini und ZeXes
Knecht_Ruprecht schrieb:
Und genau deswegen kannst du davon ausgehen, dass CB Karten zum testen hat.

Nicht zwangsläufig. Die NDA hat CB wahrscheinlich schon lange unterschrieben und sie müssen sich daran halten, unabhängig davon, wann die Karten zum testen ankommen.

Linus von Linus Tech Tips hat in einem Livestream am Freitag-Abend sehr eindeutig gesagt, dass er noch keine RTX-Karten bekommen hat und keine Ahnung hat, wann er welche bekommt.
Könnte gut sein, dass die erst am 13. eintrudeln. Wäre nicht das erste mal, dass die Tester eine Nachtschicht einlegen mussten, weil die Testmuster erst im letzten Moment geschickt wurden.

Ergänzung:
Außerdem hat Linus in dem Stream gesagt, dass Nvidias NDA und die Vorgehensweise mit dem Treiber-Download usw. sich nicht wirklich von anderen Herstellern unterscheiden. AMD, Intel, Apple und Co. machen das genauso oder ähnlich.
Also kein böses Nvidia, das unabhängige Tests verhindern will. Einfach nur der selbe NDA-Murks wie überall üblich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Knecht_Ruprecht
Axxid schrieb:
Idealerweise bleibt die P/L also gleich (+50%). Schlimmstenfalls hat man halt nur 25% Mehrleistung.
Naja, idealerweise sollte P/L von Generation zu Generation besser werden und nicht gleich bleiben :D
Ansonsten würde Generation von Generation um 20-30% teurer werden. Ideal ist das nicht ;)
 
sleuftdude schrieb:
Ich mein... wenn ich für 10-20Euro im Monat alle Games auf MaxOut spielen könnte und das ohne Qualiverlust/Lag in 4K 144Hz, dann brauch ich keine 1000Euro Grafikkarte mehr.
Wimre soll zB. Geforce Now $25 für 20 Stunden kosten (FullHD mit GTX 1070 Performance), eine 20 € Flatrate ist da wohl noch in weiter Ferne.
 
wickedgonewild schrieb:
Sorry, der Artikel hat 0 Informationsgehalt. Spart euch doch bitte derlei Mist zu veröffentlichen.

Du solltest doch inzwischen lang genug dabei sein, um zu wissen dass CB Gerüchte, während es unter dem NDA ist, nur dann teilt, wenn sie nah an der Wahrheit sind ;)
 
  • Gefällt mir
Reaktionen: Alphanerd und teufelernie
7hyrael schrieb:
dann halt 1 Jahr und 9 Monate bis sie mal in Breiter Menge halbwegs verfügbar wird :rolleyes: Ändert an der Aussage nichts.

Es sind auch kein Jahr und neun Monate. Du scheinst irgendwie keine Ahnung zu haben, von dem was du hier schreibst...
 
monstar-x schrieb:
So und jetzt du, wieso es Plausible ist, das er bereits am 14.08 eine funktionierende 2080 Ti samt Treibern hatte.
Der Benchmark stammt angeblich vom 30.8., Bf5 kann da eigentlich nicht drin sein oder er hat sich die Alpha irgendwie hacken lassen...
Ergänzung ()

DerPessimist schrieb:
Wenn ich dir sagen würde, dass wir eine 2080 Ti erhalten haben, weil wir ein Entwicklerstudio im 3D Bereich sind und einer von uns diese Karte über das Wochenende einem Freund gegeben hat, der Youtuber ist, wäre es dann glaubwürdig?
Würdest du für so etwas deinen Job riskieren?
 
Jetzt kriegen wir hier ne 100-Seiten Preisdiskussion, dabei ist es doch so einfach - reisst euch zusammen, kauft eben nicht zu Release und bestätigt damit den Preis sondern wartet einfach mal ein paar Wochen - wenn die keine derben Umsätze machen in den ersten paar Wochen fallen die Preise automatisch - der Markt regelt schon.
 
Selbst wenn die Benchmarks fake sind, dürften sie vermutlich (leider) recht nahe an der Wirklichkeit sein, was bedeutet, dass die 2070 ein ganzes Stück langsamer als die 1080ti ist. Das wäre wirklich schade.
Ich hoffe ja noch auf eine positive Überraschung, denn eine neue karte brauche ich so oder so.
 
  • Gefällt mir
Reaktionen: CBL
Lübke82 schrieb:
Es sind auch kein Jahr und neun Monate. Du scheinst irgendwie keine Ahnung zu haben, von dem was du hier schreibst...
9. Mrz. 2017 war das ReleaseDatum der 1080Ti, das sind bis anfang nächster woche recht exakt 18 Monate. +3 Monate bis die 1080 Ti in breiter Masse verfügbar wird. Die FE war jetzt nicht so in riesen Stückzahlen gut verfügbar wenn mich mein Erinnerungsvermögen nicht völlig trübt und bis die Partnerkarten gut verfügbar sind dauert es eben.
Was war daran nun so schwer zu verstehen?
 
v_ossi schrieb:
Da ist der Gedanke mMn nicht ganz abwegig, ob der Schritt zu Tensor und RT Cores vlt. etwas zu früh kommt, wenn sich bei allen bisherigen Spielen zwangsläufig 50% des Dies im Idle 'die Eier kraulen' und ich bei neueren Spielen zurück auf 1080p@60 muss.
Da kraulen sich wahrscheinlich nicht einmal 20% des Chips die Eier, denn RT/TC kostet bei weitem keine 50% der Chipfläche.
 
Wenn es halbwegs stimmt: Sehr anständiges Ergebnis (Man darf nicht die Grenzen der Physik vergessen, an die wir uns mehr und mehr annähern). Der Preis von 1300€ für diese Mehrleistung wäre aber dennoch gewagt, trotz hoher Fertigungskosten. Früher war es üblich: Neue Generation raus->alte Generation fällt stark im Preis... Es riecht sehr nach Monopol (Auch wenn sich Nvidia dieses Monopol verdient hat)

Wenn es denn wenigstens ein unkastrierter Chip wäre mit 12GB VRAM... Der Kostet dann 2000€?
 
Matthew Sobol schrieb:
"Ergebnisse passen ins Bild der bisherigen Gerüchte"

"Werte sind mit Vorsicht zu genießen"

härrrlisch ^^

Und doch ist beides zum jetzigen Zeitpunkt korrekt und darauf hinzuweisen! Ich seh den Punkt vieler Kommentatoren nicht, was hier ein wie auch immer geartetes NDA zu suchen hat, denn eines steht fest:

Übernächsten Freitag berichten Redaktionen rund um die Welt offen ohne NDA über Turing mit ausführlichen Tests. Es könnte also alles bissl stimmen, die Infos sind jedoch bis dahin mit Vorsicht zu genießen. Nicht mehr, aber auch nicht weniger (und ist nicht die Phase der Gerüchte irgendwie spannend, wenn man es eben als Gerüchte mal annimmt?) :D
 
Zuletzt bearbeitet:
HerrRossi schrieb:
Würdest du für so etwas deinen Job riskieren?

Das war nur ein Beispiel.
Aber selbst wenn das so wäre, gäbe es genügend Leute die es trotzdem machen würden.
Entweder weil die Vertrauen haben, der Job "sowieso bald beendet wird", die Geld bekommen und in einer finanziellen Krise sind oder was auch immer.
Es finden sich immer Gründe.

Ich persönlich habe den Vorteil, dass ich keine zukünftige Hardware brauche.
Entweder sind meine Szenen unmöglich in Echtzeit zu berechnen und werden daher über viele Stunden gerendert oder müssen so gestaltet sein, dass es ein Mittelklasse PC schafft.
 
GreitZ schrieb:
Der Logik nach müsste jeder vernünftig denkende Mensch diese 2080 Karten überspringen.
Abwarten.
Die Implementierung von RT steht noch ganz am Anfang. Es gibt ja bereits Ansätze die Raytracing Effekte losgelöst und z.B. in einer niedrigeren Auflösung als den Rest zu berechnen.
Ich glaube nicht, dass es auf Dauer nur bei 60fps @ FullHD für die RTX 2080Ti bleibt denn dann wäre spätetestens die RTX 2070 vollkommen sinnlos.
(720p und/oder 30fps kannst du nun wirklich keinem PC-Spieler mehr verkaufen.)
Vermutlich wird es einen Slider für RT-Effekte geben der auf low eben nur dezente Vorteile bietet (damit aber auch mit einer 2070 oder in höheren Auflösungen mit einer 2080Ti läuft) und sich entsprechend hochschalten lässt bis alle aktuellen Karten die Puste ausgeht.

Zudem könnte ich mich mir vorstellen, dass die Preise nach einer Weile deutlich sinken werden:
Ich vermute, dass man die Karten vorerst preislich über der Pascal-Serie einordnet um einerseits die Enthusiasten abzuschöpfen und andererseits die anscheinend immer noch hohen Pascal Lagerbestände abzubauen.

Man könnte nun argumentieren, dass Nvidia dann wenn die Pascal Lagerbestände leer sind diese Lücke einfach mit einer RTX 2060 füllt und die Preise stabil hoch belässt. Das glaube ich aber nicht, da Raytracing als "das tolle Feature" auf Mittelklassekarten nach aktuellem Stand eigentlich nicht richtig laufen kann.
Spätestens da kann nurnoch mit Leistung, besserer Leistungsaufnahme oder dem Preis gegenüber den Pascal-Karten argumentiert werden und da sich leistungstechnisch in der Oberklasse wohl schon nicht so viel getan hat, erwarte ich das auch nicht von den Mittelklassekarten.
Entsprechend wäre hier absoluter Stillstand wenn eine RTX 2060 kommt die Leistungstechnisch einer GTX 1070 entspricht und das wäre selbst für Nvidia schwer zu verkaufen...
 
[wege]mini schrieb:
Nvidia hat gar keine Flächenangaben gemacht.
Wer drei Textboxen als solche interpretiert sollte wirklich noch einmal darüber nachdenken.

Man kann auch grob nachrechnen, wie viel Turing ungefähr Zusatzfläche im Vergleich zu Pascal benötigt:
GP102 3840 ALUs = 471mm²
GT102 4608 ALUs (+20%) = 754mm² (+60%)

Der Turing ist 283mm² größer, dass sind 37,5% vom die-size, wenn man davon 20% wegen der erhöhten Shaderanzahl abzieht, landet man bei 30% "Overhead".
Diese 30% und natürlich schon von Anfang an bei der Vereinfachung beinhalten aber noch die größeren Caches von Turing (6MB L2$ vs. 3MB L2$ + mehr Cache pro Shader Core) und vermutlich auch das Register-File, dass kostet auch ordentlich Fläche.

Egal wie du vereinfachst, bei 50% Flächenverbrauch für RT+TC kommst du niemals heraus.
 
Zurück
Oben