Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

CBL schrieb:
Aber stand im Text nicht auch, dass die Asus 2080 die einzige Karte war, die mehr Freiraum beim Power Target lässt. Das waren 125%, während die FE max 124% erlaubt oder so. Sorry, aber es sieht so aus als hätte CB die Karten bis zum Anschlag übertaktet. Ich würde jetzt nicht auf mehr hoffen. Das einzige Modell, dass noch in Frage käme, ist die MSI 2080TI Trio. Sie hat 2x 8 Pin und 1x 6 Pin als Stromanschlüsse und sie sind ja nicht ohne Grund da.

Aus dem Artikel:

Die GeForce RTX 2080 Ti Founders Edition rennt nicht nur häufiger, sondern immer ins Power Limit. [...] Mit vollem Power-Limit bleibt der volle Takt oft auch unerreicht. Im Schnitt lässt sich damit die Frequenz um etwa 100 MHz erhöhen.

123% bei der 2080 Ti bedeutet von 260 auf 320 W PT. Theoretisch wären 375 W mit 2x8 Pin kein Problem.

Daher tendiere ich zu einem Custom Modell mit vernünftigem PT.
 
Falls es einen interessiert, folgende E-Mail kam gerade:
Hallo ...,

vielen Dank für Ihren Einkauf im NVIDIA Online Store.

Leider kam es beim Versand Ihrer Bestellung der RTX 2080 Ti Founders zu einer unvorhergesehenen Verzögerung. Wir teilen Ihnen in Kürze das aktualisierte Lieferdatum mit.

Bei Fragen oder Bedenken bezüglich Ihrer Bestellung wenden Sie sich bitte an den Kundendienst.

Wir entschuldigen uns für die Unannehmlichkeiten und bedanken uns erneut für Ihre Bestellung.

Mit freundlichen Grüßen

NVIDIA Online Store

Kundendienst
 
fanatiXalpha schrieb:
Wie ist das gemeint?

Das Spiel ist für viele schon durch. 100% auf Deadly Obsession und der Content ist bekannt, da spielt keiner das Spiel mit gleichem Content, den er schon kennt, nur wegen Raytracing oder DLSS noch einmal durch.
 
  • Gefällt mir
Reaktionen: inge70, Verak und DonL_
@ Krautmaster

Und du bist dir so sicher, dass die ganzen Studios RT umsetzen, obwohl es vielleicht in einem Jahr 3-5% der Käufer überhaupt nutzen können?
Die absolute Mehrzahl spielt mit Midrangekarten und Konsolen, für die Literation der neuen Konsolen habe ich bei Navi nichts von RT gelesen. Ich bin mal gespannt,ob die Studios wirklich so viel in die Entwicklung stecken, wenn es nur eine überschaubare Anzahl an Käufern für das Feature gibt.
Dazu kommt noch, dass die 2070 wohl wirklich untauglich zum spielen mit RT ist, da zu wenig Rohleistung und selbst die 2080 dürfte sich schwertun, da die meisten Nutzer, eher ungern mit 45 FPS in 1080 spielen.

So etwas ist für die Masse, wenn das RT könnte (unabhängig vom Hersteller), könnte man darüber reden.
http://www.pcgameshardware.de/AMD-Z...e-Fenghuang-Custom-APU-Hands-On-Test-1265359/
Das Ding wird sich in China verkaufen wie warme Semmeln an die ganzen Internetcafes und läßt ein Vorgeschmack zu, auf die neuen Konsolen, selbst das Ding dürfte in der westlichen Welt, wesentlich mehr Käufer anlocken, als Turing Karten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: darkcrawler, gesperrter_User, Grundgütiger und 2 andere
Es wird einige völlig Irre geben, die sich die 2080er Karten blind kaufen werden, egal wie teuer. Nvidia wird gut verdienen und die Entwickler pushen, mit Kohle, damit die Raytracing implementieren damit Nvidia mit immer mehr Spielen werben kann, damit noch mehr Irre zuschlagen.
 
Ist doch perfekt. Dann bezahlen die Irren die Weiterentwicklung und du kaufst dir dann irgendwann bei eingependeltem P/L Verhältnis etwas später eine ähnliche Karte und kommst in den Genuss der neuentwickelten Games "für umme" :)
 
  • Gefällt mir
Reaktionen: Phear, Esenel und .Sentinel.
  • Gefällt mir
Reaktionen: Smartcom5
AshS schrieb:
Man hätte vielleicht noch erwähnen sollen, dass die bisherigen 2080er Karten mit diesen Dual-Slot und Triple-Slot-Kühler kühltechnisch der totale Alptraum sind, die pusten ihre die Abwärme nämlich überall hin, nur nicht dahin wohin sie soll, nach draußen!

Diese Art Kühlung funktioniert überhaupt nur, weil alle Gehäuselüfter und der CPU-Lüfter dann ebenfalls auf Hochtoren laufen um den Hitzestau noch irgendwie abzuwehren. Die Lebenswartung aller anderen PC-Komponenten sinkt darüber trotzdem, vor allem der Festplatten.

Anhang anzeigen 710022
Anhang anzeigen 710023

Man sollte sich dieses 250 Watt Monster von daher auf keinen Fall ohne geschlossenen Kühler kaufen! Die "ASUS Turbo GeForce RTX 2080 Ti" scheint es auch besser zu machen, die hat tatsächlich auch wieder eine Längs- und nicht Querausrichtung der Kühler-Lamellen dafür!
Die meisten Custom-Designs unabhängig von verbauter GPU blasen die Wärme einfach raus. Dann brauchst du ein PC-Gehäuse mit gutem Airflow. Die alten GPUs mit ihrer kleinen Wärmeentwicklung hatten mit dem oben rein und hinten raus Luftführung Vorteile.

Aber aktuell, oder seit NV-Fermi ist das Ziel eigentlich nur die Wärme weg zu bringen vom GPU-Protz.

Der Stromverbrauch der GPUs hat sich in den letzten Jahren nicht reduziert, aber relativiert. Die nächste GPU wird uns Gamern wieder wenigstens 250W abverlangen.

Sorry, ich bin echt ein begeisterter Gamer. Ich bin 57 Jahre alt und zocke täglich an meinem PC.

Aber ich möchte nicht mehr die Erde mit meinem Hobby verbrennen.

Ich möchte keinen PC mehr mit diesem hohen Energieeinsatz. Es muss möglich sein ne High End Grafikkarte mit deutlich unter 250W anzubieten.
 
  • Gefällt mir
Reaktionen: inge70, Smartcom5, thebagger und eine weitere Person
Mag sein, dass ich nicht bewandert bin was Spiele-Releases betrifft, aber NVIDIAs Liste mit zukünftigen Titeln, die entweder DLSS/RT oder beides supporten, sagt mir persönlich recht wenig. Die meisten Titel habe ich zum ersten Mal gehört, selbst die Namen der Studios sehe ich zum ersten Mal. Auf der anderen Seite fehlen da große Bekannte, u.a. Activision Blizzard, Rockstar oder Ubisoft. Selbst CD Project Reds kommendes Cyberpunk wäre wohl für beide Technologien geradezu prädestiniert.

Da hätte ich lieber eine Liste mit allen Entwicklerstudios gesehen, die auf den Zug aufspringen wollen.
 
  • Gefällt mir
Reaktionen: gesperrter_User und Verak
Wow! Besser als ich erwartet hätte! Hut ab, Nvidia! Ihr seit zwar mega unsympathisch aber Grafikkarten könnt ihr wirklich bauen! ;-)

Jetzt kann man, wenn man die Power braucht, nur warten und hoffen, dass die Preise sich einpendeln oder eben Lotto spielen.

Ich persönlich werde weiterhin glücklich und zufrieden in 1080p mit 60FPS zocken. Das reicht für meine Augen und meiner Reaktionszeit locker! Aber auf Raytracing wäre ich schon gespannt. Wenn das zB. in PUBG oder the Forrest noch nachgereicht wird und top aussieht würde ich wohl doch zu sparen anfangen. Aber nur dann!
 
Zuletzt bearbeitet:
guru meditation schrieb:
Ich möchte keinen PC mehr mit diesem hohen Energieeinsatz. Es muss möglich sein ne High End Grafikkarte mit deutlich unter 250W anzubieten.
Mag vielleicht sogar möglich sein, aber ich denke nicht, dass du dafür noch mal einen deutlich höheren Preis hinlegen würdest. Jedes Smartphone hat heute mehr Leistung als ein 15 - 20 Jahre alter PC. Ich möchte mir aber nicht vorstellen wollen, was die Leistung eines heutigen aktuellen Smartphones zur damaligen Zeit gekostet hätte.
Da die Spieler es immer realistischer haben wollen und die Effekte immer perfekter sein müssen. damit das ganze schon wie ein Film wirkt, wirst du keine Karte zu einen bezahlbaren Preis herstellen können, auch wenn es technisch vielleicht möglich ist.
 
Also aktuell seh ich das so: GTX 1080ti vsRTX 2080: 6% höhere Performance aber 14% (aktuell) höherer Preis. Und dann noch 3 GB weniger VRam.
Ja, Raytracing ist nicht zu unterschätzen, ABER: Man darf davon ausgehen, dass das in den Turing-Grakas Raytracing verhältnismäßig "rudimentär" implementiert ist (da erste Implementierung-> in späteren Generationen (1-2) deutlich verbessert/ bessere Umsetzungen. Dabei ist das "rudimentär/verbessert" hier explizit auf Alltagstauglichkeit bezogen, ansonsten könnte man auch anführen, dass Techologie natürlich immer mit mehr Zeit ausgereifter wird). Das muss einem halt bewusst sein.
Alltagstauglich meint hier (subjektive Definition!), dass bei einer solchen Highend Graka Raytracing mit High-Settings (also nicht zwangsläufig alle Regler nach rechts) und WQHD 60FPS als Minimum (sprich: es gibt immer minimal 60FPS) erreicht und ohne Bugs läuft. Da hab ich aber so meine Zweifel.
Was ich aber dann schon ein Unding finde ist die Beschneidung des Speichers auf 8GB. bei ca. 800 Öcken sind locker 11-12 GB drin und dann hätte man (vom Speicher her) noch keinen Vorteil im Vergleich zu Pascal sondern maximal einen Gleichstand.
DLSS fällt für mich ohnehin wegen Datensammelei flach.
Ich glaub wenn, dann werden erst die nächten Nvidia Generationen interessanter.
Zudem wäre eine offene Lösung für Raytracing schön (eine Art "offener Standard"), sonst gibt es wieder Nvidia-Lösung, AMD-Lösung und in weiterer Zukunft vllt. noch Intel-Lösung. (Ist dann blöd wenn ein Spiel z.B. nur AMD-Raytracing unterstützt, man aber ne Nvidia-Karte hat, oder eben umgekehrt).
Mal schauen, was es als GTX (<=2060) gibt. Aber ich fürchte da wird es maximal auch nur die gleichen Speichermengen wie bisher geben. Fänd ne "umgelabelte 1070" für 280€ interessant.
 
Tramizu schrieb:
Da die Spieler es immer realistischer haben wollen und die Effekte immer perfekter sein müssen. damit das ganze schon wie ein Film wirkt, wirst du keine Karte zu einen bezahlbaren Preis herstellen können, auch wenn es technisch vielleicht möglich ist.

Hmm ist dem so ?, also wenn ich mir die meistgespielten (online) Games anschaue, sind das durch die Bank nicht wirklich so die Grafikbomben. - CS, Dota, LoL, PUBG usw.
 
Zuletzt bearbeitet:
guru meditation schrieb:
Sorry, ich bin echt ein begeisterter Gamer. Ich bin 57 Jahre alt und zocke täglich an meinem PC.

Aber ich möchte nicht mehr die Erde mit meinem Hobby verbrennen.

Ich möchte keinen PC mehr mit diesem hohen Energieeinsatz. Es muss möglich sein ne High End Grafikkarte mit deutlich unter 250W anzubieten.

Finde ich sehr korrekt!

Bei mir darf PC und Audio überdurchschnittlich viel verbrauchen, dafür halt Ökostrom, WindGas und kein Auto.
 
Die 2080 ist eine Karte fürs Herz, nicht für das Hirn.
Das Herz ist manchmal einfach ziemlich dumm. Aber wer unbedingt möchte der kann sich jetzt daran bedienen.

Schöner Test, einzig die Gleichstellung der x80er und der Ti Modelle gefällt einfach nicht.
 
ist der Test eigentlich aussagekräftig? Ich meine Nvidia hat ja auch kundgegeben, dass die neuen Karten vom Werk aus übertaktet wurden, und die 10xx ja wohl nicht.
 
mcsteph schrieb:
Hat Computerbase auch den Verbrauch mit 2 angeschlossenen Monitoren getestet? Bei pcgh ist es mit den neuen Modell ordentlich in die Höhe gegangen
Freiheraus schrieb:
Ich bin wirklich beeindruckt wie sich die Leistungsaufnahme der GTX 1080 und GTX 1080 Ti im Spieledurchschnitt entwickelt hat:

Pünktlich zum Turing-Start wurden die Pascal-Werte "realistischer", ansonsten hätte es noch passieren können, dass die GTX 1080 Ti FE sparsamer und effizienter als die GTX 2080 FE mit ihren 229 Watt ausfällt.
Soviel zum Thema des ständig wechselnden (und konstant undurchsichtig bleibenden) Testsystems …
Es wird die letzten Monate von Seiten ComputerBase weder gelistet, was genau an Hardware verwendet wird, noch welche oder ob überhaupt irgendwelche Sicherheits-Patches à la Meltdown, Spectre, Foreshadow & Co eingespielt wurden.
Smartcom5 schrieb:
@Wolfgang Danke für den pünktlichen Test, liest sich angenehm!
@ComputerBase Trotzdem dürfen zwei Fragen am Rande erlaubt sein;
Wieso bekommt man bei vielen Tests die letzte Zeit bei solchen Zeilen wie „Für das Launch-Review der GeForce RTX 2080 Ti und der GeForce RTX 2080 wurden sämtliche Testreihen erneuert.“ immer den unmittelbaren Eindruck, daß bei jedem zweiten Test das gesamte Testssytem über den Haufen geworfen wird?
Wurden irgendwelche Patches bezüglich Meltdown, Spectre, Foreshadow & Co eingespielt? Wenn ja, welche?
Ein wenig mehr Transparenz dürfte hier keinefalls schaden …
Aufgrund der Vergangenheit (*hust* AMD's APU-Test …) muß man hier leider annehmen, daß keinerlei Patches Verwendung finden.

sverebom schrieb:
AMD hat nach meinem Verständnis mit GCN auf das falsche Pferd (gesetzt?). Sicherlich hat es da auch eine Rolle gespielt, dass AMD nicht die Marktposition hatte, um die Spielentwicklung gegen die Marktmacht von NVidia in für GCN geeignetere Bahnen zu lenken (oder man stand in der Rolle des Underdogs stärker unter Zugzwang, neue Wege zu gehen). Hinzu kommt das HBM-Debakel. Keine Frage, AMD wäre auch bei einem idealen Verlauf der Marktentwicklung der Herausforderer geblieben, aber einige Probleme, die AMD derzeit plagen, gehen auf strategische Fehlentscheidungen zurück, zumindest wenn man nur auf den Markt für diskrete Grafikkarten schaut.
Auch wenn man Dir da nur generell beipflichten kann, aber die Karten der HD 7xxx-Generation waren mit GCN Finewine™ schlechthin.

sourcefreak schrieb:
Bezweifle, dass Nvidia auf dem "teuren" Kram sitzen bleibt. Immerhin kauften die Leute ja auch die 970 mit 3,5 GB wie geschnittenes Brot, als schon monatelang das "Feature" bekannt war.
Kann man so nicht vergleichen. Die GTX 970 war trotz (und später gerade aufgrund) des Makels Preis-Leistungs-technisch kaum zu schlagen – insbesondere später im Abverkauf. Für den Großteil der Leute, die lediglich auf Full HD spielen, reicht die noch immer.

Und ja, auch wenn nVidia mittlerweile die Treiberunterstützung zwecks forcierung der GTX 10x0-Serie absichtlich sukzessiv zugück gefahren hat und es damit nicht länger eine Vermeidung des Speicherüberlaufs auf über 3,5 GByte im Treiber gibt. Alter Treiber und das Problem ist gelöst, binnen Minuten. Spielt ohnehin keine Rolle mehr, da die Karte am selben Tag des GTX 970-Settlement von „Lederjacke“ mit dem omnipräsenten Mittelfinger Richtung Anwenderschaft gen Legacy verabschiedet wurde …
bliny15x18.gif



In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: Iscaran
CB hat ja das von mir fast ausschließlich gespielte BF1 nicht getestet, von daher verlinke ich mal auf Igors Test bei Tomshardware.

Es ist unglaublich wie stark die Turing Karten in BF1 sind. Hier deklassiert die 2080 eine 1080Ti um Längen und die 2080Ti ist auf einem anderen Planeten unterwegs.

Betrachtet man sich jetzt noch weiter unten die Frametimes unter DX12, dann sieht man hier eindeutig dass "Ruckeln" von Pascal in BF1 bei DX12. Mit Turing ist das komplett weg und man hat perfekte Frametimes, ein riesiger Fortschritt. Auch sind die MinFPS deutlich besser.

Mit dem richtigen Spiel setzt Turing neue Maßstäbe.


https://www.tomshw.de/2018/09/19/nv...ng-turing-benchmarks-und-neue-erkenntnisse/8/
 
Zurück
Oben