News Nvidia Turing: Erste GeForce RTX 2080 (Ti) der Partner in Bildern

so_oder_so schrieb:
Erstmal wäre wünschenswert, wenn die Karten durchgehend 60fps @ maxx settings @ 4k schaffen würden.

144Hz 4K kannste vergessen, das wird mit RTX 2100 oder 2200 eventuell so weit sein.

Die Probleme sind nicht immer nur bei der Rohleistung zu suchen!

Frage ist was man unter Max Settings versteht.

Mit der 1080TI bei WQHD @144 Hz, läuft es nicht schlecht. Allerdings kann ich da auch nicht alles nach rechts schieben und X mal AA verwenden. :D

Braucht es im 4K unbedingt alles auf max? Die Auflösung ist ja schon ziemlich hoch.
 
Die ti wird sicher heute abend auch als 4k Karte beworben erstmals. Zu Pascal hat Jensen kein Wort zu 4k verloren. Dieses mal mit den BFG usw wird das denkenich anders.
 
  • Gefällt mir
Reaktionen: derbe
tomasvittek schrieb:
30 FPS, nuff said.

wenn dir das reicht. hej, gut für dich (ganz ohne ironie).

Lieber 30fps bei Horizon Dawn, als 60fps im langweiligen Tombraider oder Battlefield. Eine höhere Framerate kann das Spielerlebnis von durchschnittlichen Spielen auch nicht signifikant erhöhen. Je älter man wird, desto weniger schaut man auf die Technik, sondern auf Inhalte.
 
  • Gefällt mir
Reaktionen: MeisterOek, Harlekin1781, Mcr-King und eine weitere Person
Was mich an dem ganzen noch stört sind die Menge an Speicher.
Eine 2060 soll nur 5 GB , eine 2070 vielleicht 7 GB bekommen?
Also spätestens ab einer GTX 2060 sollten alle mind. 8 GB bekommen.
Naja heute Abend weiß man mehr, bin gespannt.
 
  • Gefällt mir
Reaktionen: Steueroase
Die Karten unterstützen ja Raytracing richtig? dann müssten die Games das ja auch unterstützen oder seh ich das falsch? wenn ja kanns ja noch dauern bis das in Spielen so weit ist bis dahin kommen die nächsten Karten schon.
 
Begu schrieb:
Ich bescheinige allen GTX2000 Varianten einen kurzen Lebenszyklus auf dem Markt. Der 7nm Prozess von TSMC ist nächstes Jahr serienreif und soll dem 12nm Prozess in entscheidenden Aspekten weit überlegen sein (Leistung und Effizienz). Daher wird Nvidia auch nächstes Jahr auf den 7nm Zug aufspringen. Es bringt also eher wenig, im März 2019 eine 2080Ti rauszubringen, die dann ein paar Monate später von den 7nm Produkten überflüssig gemacht wird.
Es kommt halt wohl darauf an, wie sich die neuen RTX Grafikkarten verkaufen werden und so lange es keinen Druck gibt von der Konkurrenz, wird man bei der Turing Serie von Nvidia aus, alles mitnehmen was man bekommt. Ich glaube nicht das im nächsten Jahr schon wieder eine neue Grafikkarten Serie von Nvidia kommt, auch wenn sie es vielleicht könnten.

Der 7nm Chip wird bestimmt erst 2020 kommen, vorausgesetzt, Nvidia wird nicht von der Konkurrenz genötigt!
 
Herdware schrieb:
Also, was Intels iGPUs angeht, habe ich schon reichlich solche Aussagen gelesen.
Sind auch nicht ganz unbegründet. ;)
(Wobei ich bei meinen letzten beiden Ultrabooks durchaus positiv überrascht war, wie gut viele (eher anspruchslose/ältere) Spiele darauf laufen. Die aktuellen iGPUs sind unbestreitbar um Welten spieletauglicher, als damals die GMA-Onboard-Chips, die wirklich nur für Office und Co. ausreichten.)

"Für Gaming nichts taugen" ist aber auch eine merkwürdige Aussage. Kommt halt immer drauf an, was man spielen will. Was für Ansprüche man hat. Und nicht zuletzt auf den Geldbeutel.

Bei Intels CPUs und Nvidias GPUs ist es halt so, dass sie seit Jahren fast immer das absolute High-End für sich gepachtet hatten. Da ist es dann relativ einfach für Fans (Fan-Boys) dieser Hersteller zu argumentieren, dass das das Beste ist und die Konkurrenz "nichts taugt". Intel und Nvidia haben ja meist die längsten Benchmark-Balken.

Was natürlich trotzdem Blödsinn ist, denn Mittelklasse und auch Low End sind letztlich die viel relevanteren Marktsegmente. Die allerwenigsten werden sich nur Extreme Edition und Titan in den PC bauen, selbst unter den Hardcore-Fans. Sobald Preis/Leistung eine Rolle spielt, war AMD eigentlich immer vorne mit dabei oder klar führend.
Gut, wenn wir von integrierten "Grafikkarten" sprechen, lese ich solche Kommentare auch des Öfteren. Ich habe in meinem Office-Rechner einen AMD Ryzen 3 2200G werkeln. Das Ding läuft wie geschmiert. Vorher hatte ich eine Intel-Kiste mit Intel HD Graphics stehen gehabt, aber an die Leistung der 2200G kam sie nie heran. Aber auch hier komme ich am Ende auf ein Fazit: Letztendlich entscheidet der Anwendungsfall, wo sich welche CPU oder eben die GPU empfiehlt.

Im Systemhaus sind die Verkaufszahlen von Intel-CPUs und NVIDIA-Grafikkarten (professionelles Segment, also Quadro) rückläufig. Auch im Server-Segment kommen immer mehr EPYC-Prozessoren von AMD zum Einsatz, bei Office-Rechnern die Ryzen-APUs, PCs für Spezialanwendungen die leistungsstärkeren AMD-CPUs und bei Workstations ebenso EPYC-CPUs zum Zuge, da viele unserer Kunden mit Rendering zu tun haben. Hier liegen die AMD-Chips teilweise deutlich vorn. Im Low-Budget- und Mid-Range-Segment sind die Leistungsnuancen zwischen AMD und Intel aber eher gering. Wer anwendungsorientiert arbeitet, greift zu AMD. Wer lieber zockt, ist bei Intel teilweise (noch) besser aufgehoben. Hier entscheidet auch das Setting.
 
Kannst du so pauschal nicht sagen.

Bei Programmen, die nur wenige Kerne nutzen, fährt man mit Intel immer besser wegen der höheren SC-Leistung

Ähnliches gilt für die Adobe-Produkt-Palette, die sehr auf Intel abgestimmt ist und gewisa von sehr vielen genutzt wird (PS ist ja schon quasi zum Standard-Produkt für Bildbearbeitung geworden).

Genauso findet man bestimmt Spiele, die von sehr vielen Kernen profitieren.


B2T:

Ich finde es gut, dass sie scheinbar keine FE bringen und gleich die Ti - so muss ich auch nicht ständig Kommentare lesen à la: "Meine 1080Ti reicht mir noch locker, bis zur nächsten Ti kaufe ich gar nichts, blablabla."
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Der 7nm Chip wird bestimmt erst 2020 kommen, vorausgesetzt, Nvidia wird nicht von der Konkurrenz genötigt!
Mag sein, ich behaupte aber dreist, dass der 7nm Prozess Nvidia dazu nötigen wird. Die GPU werden damit billiger zu fertigen sein (nur noch 50% Chipgröße), was Nvidia's Marge zugute kommt. Natürlich alles unter der Voraussetzung, dass der 7nm Prozess so gut wird wie die aktuelle Gerüchteküche behauptet.

Banned schrieb:
Kannst du so pauschal nicht sagen.
Wieso pauschal? Er beschreibt das aus seiner Erfahrung / Sichtweise, siehe "viele unserer Kunden"...
 
Warum ist jeder so gehyped auf heute Abend? So wie man überall liest haben die "Tester" doch gar keine passenden Treiber für die Karten?
 
Begu schrieb:
Es bringt also eher wenig, im März 2019 eine 2080Ti rauszubringen, die dann ein paar Monate später von den 7nm Produkten überflüssig gemacht wird.

Ich bin da inzwischen leider eher pessimistisch.

Egal wie weit TSMC mit 7nm ist. Nvidia kann ja einfach weiter abwarten und erst dann auf 7nm wechseln, wenn sie die alten GPUs/Karten ausreichend abverkauft haben. Es sei denn, AMD (oder irgendwann Intel?) macht ihnen Feuer unter dem Hintern. Das kann passieren, muss aber nicht (besonders nicht in absoluten High End). Wie gesagt bin ich da nicht mehr sehr optimistisch. Selbst wenn AMD einen Ti-Killer in der Schublade hätte, muss der nicht zum nächstmöglichen Zeitpunkt kommen. Letztlich kann ein unausgesprochener "Waffenstillstand" für beide Seiten ganz bequem sein.

Wir haben doch seit Jahren keinen richtigen Wettbewerb mehr, bei den Grafikkarten. Jedenfalls längst nicht so, wie es früher (vor 10 oder 20 Jahren) einmal war. Und entsprechend langsam geht es vorran. Es wird nicht mehr gemacht was möglich ist, sondern nur das nötige.

Es würde mich dementsprechend überhaupt nicht wundern, wenn die RTX 2000er nur ein milder Pascal-Aufguss mit angestöpseltem Raytracing-Feature (mit wenig realem Mehrwert) sind und wir auch in 2 Jahren nichts wesentlich besseres sehen werden.

cansys schrieb:
...Auch im Server-Segment kommen immer mehr EPYC-Prozessoren von AMD zum Einsatz,...

Nicht böse gemeint, aber in dem Markt-Bereich geht es für AMD ja auch schwer anders als Aufwärts. ;)
 
Tec schrieb:
Wahnsinn, wie viele Bilder schon im Umlauf sind - da steigt die Hoffnung, dass es kein Paper Launch wird und auch nicht nur die Nvidia Founders Edition gleich zum Start verfügbar sind.

Igor hatte gestern oder vorgestern schon darauf hingewiesen, dass auf der Gamescom höchstwahrscheinlich nur PVT-Samples zum Einsatz kommen, also Karten, die dem finalen Stand entsprechen und auch so verkauft werden sollen. Bis die aber verfügbar sind vergehen noch ein paar Wochen. Dafür spricht auch, dass für die Karten ab heute Abend eine "Preorder" laufen soll. Ich denke nicht, dass man die Karten schon morgen bei Online-Anbietern auf Lager sehen wird.
 
Mir gefiel ja GTX besser. Aber wenns RayTracing unbedingt unterbringen müssen, dann von mir aus auch RTX. Ich dachte aber zuerst, dass RTX für eine Radeon steht.
 
Zotac2012 schrieb:
Sollte die Founders Edition so sein mit dem Dual Lüfter finde ich das auch schon ein Signal oder Hinweis, dass diese RTX 2080Ti schon ordentlich gekühlt werden muss.
klar, kann alles sein. die lüfter sind aber eher unten. und wenn die unten sind dann ist die Schrift nicht mehr "normal" lesbar.
edit: die quelle gibt aufschluss:
but don’t worry — the logo is upside down only for promotional purposes.
Banned schrieb:
Genauso findet man bestimmt Spiele, die von sehr vielen Kernen profitieren.
soweit ich grad informiert bin ist bei 8 schluss.
 
Zuletzt bearbeitet:
Für mich entscheidend ist bei Turing vor allem die Leistungsfähigkeit im Vergleich zu Pascal unter DX11. Nvidia muss mir keine DX12 RTX Features aufzeigen, wenn bekannt ist, dass Pascal gerade unter DX12 massiv an Leistung verliert. Die Karte muss nicht nur potenzielle Titel aus der Zukunft wiedergeben können, sondern eben auch bei den bereits etablierten Titeln leistungsmäßig überzeugen können. Von mir aus kann Turing bei Raytracing um Faktor 6 schneller sein als Pascal, nur eben erwarte ich auch eine höhere Leistungsfähigkeit ohne Raytracing in DX11. Da müssen mindestens 30% mehr Leistung hinzukommen, wenn Nvidia möchte, dass ich von einer 1080ti auf eine 2080Ti umsteige.
 
  • Gefällt mir
Reaktionen: Zockmock
Tobias123 schrieb:
Lieber 30fps bei Horizon Dawn, als 60fps im langweiligen Tombraider oder Battlefield. Eine höhere Framerate kann das Spielerlebnis von durchschnittlichen Spielen auch nicht signifikant erhöhen. Je älter man wird, desto weniger schaut man auf die Technik, sondern auf Inhalte.

ich nähere mich jetzt der 40. spiele seit über 30 jahren. ich behaupte: umso älter man wird umso mehr achtet man darauf das das spielerlebnis spass macht und nicht wie es aussieht. und 30 FPS können eben in nur sehr wenigen genres spass machen (nämlich da wo sie nicht auffallen (walkingsimulator, adventures etc.)

der pc hat mit abstand die meisten spiele. jede nische findet ihre perlen. die zeiten in denen große studios den pc markt ignorieren konnten sind auch schon lange vorbei.
der pc plattform vorzuwerfen sie hätte keine überragenden spiele ist ein dermaßen schwaches argument das ich mir nicht mal die mühe mache...

und würdest du WIRKLICH von qualität sprechen dann würdest du hier nicht mit playstation beispielen kommen sondern mit der nintendo switch, die seit ihres erscheines alle kritiker ranking rekorde bricht.

tust du aber nicht.

du kommst mit DEINER ps4. du bist hier nicht der erste und nicht der letzte der ins forum kommt und SEINEN kauf einer konsole zu verteidigen. aber dann halt bitte konsequent argumentieren.

ich habe noch NES spiele gespielt in 60 FPS. die entwicklung hin zu 30 FPS ist hervoragend dokumentiert. lies das mal nach. hier hast du ein paar stichwörter:

- geldgeber und finanzierer der spiele zocken die spiele meist nicht persönlich. die setzen sich hin und bekommen das von studio leuten vorgespielt. klar das es dann NULL entscheident ist wie sich das spiel anfühlt und steuert. der anzug spielts ja keine sekunde.
- die spiele verkaufen sich heute über grafik grafik grafik. auf plakaten und in der werbung sieht man eben nichts von FPS, da sieht man nur grafik. du tauschst saubere, responsive steureung für schicke grafik? das ist doch vollkommen ok, kann jeder machen wie er will. aber dann zu sagen:

"Je älter man wird, desto weniger schaut man auf die Technik, sondern auf Inhalte."

schießt doch echt den vogel ab. DU schaust auf die technik (grafik), ich genieße lieber ein spiel das nicht so schick aussieht, sich aber vernünftig steuert.
 
  • Gefällt mir
Reaktionen: Mcr-King
Tec schrieb:
Ich dachte aber zuerst, dass RTX für eine Radeon steht.

Das hätte ich AMD ehrlich gesagt auch zugetraut, nachdem sie Intel bei den Chipsätzen schon die Bezeichnungen geklaut haben. :D

Wäre auf jeden Fall lustig gewesen.


Ich dachte zuerst, RTX seien nur die Nvidia-Karten für den professionellen Bereich. Hatte auch nicht erwartet, dass sie die Bezeichnung GTX ändern.
 
  • Gefällt mir
Reaktionen: Mcr-King
zeedy schrieb:
The way it's meant to be dominated. Unfassbar wie genial NVIDIA ist. Ich sehe nicht wie AMD da noch den Anschluss finden soll, das NVIDIA Monopol ist nicht mehr aufzuhalten. Schade, ich möchte für meine RTX 3080Ti nicht unbedingt 800€ oder mehr bezahlen. Aver AMD ist ja selbst schuld, hätten sie nicht so heiße, laute und stromhungrige Karten und wäre FreeSync nicht so viel schlechter als Gsync, hätten die deutlich mehr Kunden.
Du siehst oft Dinge, die dann nicht eintreffen!

chiller1986 schrieb:
Warum ist jeder so gehyped auf heute Abend?
Weil es um NVIDIA geht?
 
Wie kommt es eigentlich, das NVIDIA diese auf der Gamescom in Köln vorstellt? Ist diese Messe international so hoch angesehen? Früher war doch die E3 in Las Vegas immer die Messe für Unterhaltungselektronik?
 
ChrisM schrieb:
Klingt fast nach meinem Korea-Monitor von Microboard, welcher ist es bei dir?


B2T: Wird es eigentlich auch wieder Founder's Edition Karten im Referenzdesign geben? Habe dazu noch nichts gelesen.

Ich habe nen Acer Predator X34
 
Zurück
Oben