News GeForce GTX 780 Ti wird schneller als GTX Titan

PiPaPa schrieb:
Könnten sie aber, sofern sie doch so sehr am Wohl der Gamer interessiert sind, wie sie und div forenuser propangieren.

lol Mantle ist 100% auf GNC optimiert.
Da ist es für Nvidia und Intel sinnvoller, einen eigenen D3D Cheat zubauen, als sich an AMD D3D Cheat zubeteiligen.
 
Ice-Lord schrieb:
Man wirft wirklich alles ins Feld um gegen die 290X anzukommen
Aber wenn der Preis da nicht mitmacht hat die 780Ti trotzdem keine Chance!
Was wird dabei raus kommen?
wieder 10 oder 15% mehr Leistung um 200€ mehr?
Dazu noch immer "nur" DX11.

Da die 780Ti keine "Bausparer"-Karte sein wird ist der prognostizierte Preis von € 650,-- völlig in Ordnung, auch in Hinblick auf die Leistung. Ich würde sie eher in "Ich will das Beste und kanns mir leisten"-Karten einreihen.

Und nein, nicht DX 11! Sie wird DX 11.2 unterstützen, wozu frag ich mich aber wohl genau um div. Nörgler zufriedenzustellen. DX 11.2 braucht kein Mensch, zumindest nicht zum zocken!
 
Panerai schrieb:
Und nein, nicht DX 11! Sie wird DX 11.2 unterstützen, wozu frag ich mich aber wohl genau um div. Nörgler zufriedenzustellen.

Sehr unwahrscheinlich bis unmöglich... - auch wenn, es wird nur von Win8.1 unterstützt und damit nur von einer sehr sehr kleiner Minderheit an Spielern.

Die Daten der Karte sehen gut aus, etwas teuer, aber immerhin das, worauf viele gewartet haben.
 
Und wieviel schneller als die Titan wird die Ti sein? 10% oder gar 15%? Die Spannung steigt, erneut. Lohnt sich eigentlich nur richtig alle 1-2 Jahre ne neue Karte zu kaufen ^^
 
7% mehr Shader +5% mehr Takt macht 12% über die GPU an sich. Wie viel der schnellere Speicher ausmacht kann ich nicht sagen. Aber das Endergebnis wird wohl zwischen 10 und 15% vor der Titan liegen.
Btw, hat jemand schon das Gerücht von den 3 Versionen gehört? Demnach wird es Varianten mit 3,6 und auch 12GB VRam geben, wobei die 6GB Version angeblich ohne TDP-Limit daher kommt und 1Ghz Standardtakt hat (Turbo auf 1.033Mhz). Achja, diese Variante soll wohl einen schicken schwarzen Kühler bekommen.
Und sollte es eine 12GB Version geben... Die wird sich wohl preislich an der Titan orientieren.
 
Amok-Sepp schrieb:
lol Mantle ist 100% auf GNC optimiert.
Da ist es für Nvidia und Intel sinnvoller, einen eigenen D3D Cheat zubauen, als sich an AMD D3D Cheat zubeteiligen.
jaja bei AMD ist es ein cheat, wäre es von nvidia gekommen wäre es natürlich eine großartige Errungenschaft und es würde lauten "warum sollte nvidia der Konkurrenz Zugang gewähren?"

Deiner Definition wäre übrigens jeder Treiber ein cheat, da dieser Zugriff auf die Hardware ermöglicht. Ebenso wäre der EAX Wrapper von Creative auch ein cheat...

Anstatt sich mal daran zu erfreuen das die teure Hardware bei passender SoftwareUnterstützung leistungsfähiger, weil besser angesprochen und daher effizienter, ist, wird mal wieder auf seinem kleinen Herstellerplaneten gemeckert...

Aber laut an Mantle beteiligter Spieleentwickler hatte nvidia wohl kein Interesse an einer Verbesserung der Schnittstellen, und nur AMD hat sich daran beteiligt. Mantle ist nämlich gemeinsam mit der spieleindustrie entstanden.
Aber nvidia hat ja scheinbar ihre lemminge, welche ohne zu überlegen alles kaufen was ihnen das Marketing vorsetzt und dazu noch in Foren gratis verteidigt bzw die Konkurrenz schlecht macht.
Ein GTX 570 Besitzer
 
Mantle wurde NV wahrscheinlich genauso angeboten wie PhysX AMD. Letztlich ist beides ziemlich nützlich, steht und fällt aber mit der Unterstützung durch die Spieleindustrie. Wenn z.B. beide Hersteller PhysX benutzen könnten, würde die Nutzung selbigen zum guten Ton gehören. Bei Mantle wird es nicht anders aussehen - prinzipiell ist der Standard ja offen.
GSync ist übrigens auch nicht NV exklusiv, man hat lediglich verlauten lassen dass man selbst aufgrund des Aufwands nicht für alle Karten verfügbar machen wird - wenn AMD sich daran setzt können sie ebenso auf GSync zugreifen wie NV. Bei Mantle scheint es mir genauso zu sein.

Zur Zeit wird es als das neue NonplusUltra gehyptet, aber ganz ehrlich - Mantle ist zur Zeit nur ein Name, mehr nicht. Das Ding wird sich erst beweisen müssen, bisher ist es nichts weiter als Marketinggeblubber um die eigenen Fanboys glücklich zu machen.
 
Mit maximalem OC wird das Ding wohl ca. 5-10% schneller als eine Titan sein. Von der erhöhten Speicherbandbreite erwarte ich bis auf ganz wenige Ausnahmen nicht viel, außer da wurden auch die Zugriffszeiten verbessert.

MahatmaPech schrieb:
wer hat denn bitte eine titan und 3x 22" mit 1680x1050 dran und zockt damit bitte bf3&4? mich würde das mal interessieren, wie flüssig das noch ist, je nach quali-stufe.
Mit gemischten Details ist auch drei mal 1920*1080 auf 60 fps kein Problem und es fällt auch nur ganz selten darunter.

In BF3 z.B. Texturen, Terrain Quality, Meshes, Schatten und AF maximal, Rest aus/minimal. Mit den neusten Treibern geht vielleicht sogar noch HBAO. In der Regel bremst da die CPU, wenns mal unter 60 fps geht.

Vorraussetzung ist, dass man die Karte auch wirklich gescheit laufen lässt und nicht mit TT und PT künstlich einbremst.
 
Zuletzt bearbeitet:
Die Frage ist wie gut sich der Gk180, bzw. die zweite Revision des GK110 Ocen lässt. Bei gleichem Takt müsste, wenn man den Speicher ignoriert, die 780Ti 7% schneller sein.
Allerdings soll der Chip wohl sehr Taktfreudig sein. Mit dem Referenzkühler sollen durchaus 1.240Mhz ohne Spannungserhöhung drin sein, was bei der Titan ziemlich schwierig bis unmöglich ist.
 
Thanok schrieb:
Mantle wurde NV wahrscheinlich genauso angeboten wie PhysX AMD.
Wann wurde bitte PhysX AMD bzw ATi angeboten?
Immer wieder wird dies behauptet ohne eine Quelle zu nennen/ nennen zu können bzw es wird pampig eine Antwort ala "nutz Google" gegeben.

Also bitte eine Quelle wo ein offizieller nvidia oder AMD/ATi Mitarbeiter direkt ein Angebot zur Lizenzierung von PhysX bestätigt und keine Foren Märchenstunden bitte.
Aber es gibt vermutlich keine Quelle, weil es dieses ominöse Angebot vermutlich niemals gab.
Aber eure Chance jetzt die Quelle aufzuzeigen!
 
Thanok schrieb:
Zur Zeit wird es als das neue NonplusUltra gehyptet, aber ganz ehrlich - Mantle ist zur Zeit nur ein Name, mehr nicht. Das Ding wird sich erst beweisen müssen, bisher ist es nichts weiter als Marketinggeblubber um die eigenen Fanboys glücklich zu machen.
Genau so sieht es aus! Mantle soll erst mal breitflächig in Spielen zur Verfügung stehen und dann auch klare Vorteile bringen (bessere Optik oder mehr FPS). Dann können wir über das unvorstellbar tolle Mantle weiter reden. Es gibt viele Nischenprodukte die eigentlich ganz toll sind und Potential haben, aber wenn ich als Kunde das nicht nutzen kann bringt mir das halt auch nichts.
 
Thanok schrieb:
Die Frage ist wie gut sich der Gk180, bzw. die zweite Revision des GK110 Ocen lässt. Bei gleichem Takt müsste, wenn man den Speicher ignoriert, die 780Ti 7% schneller sein.
Allerdings soll der Chip wohl sehr Taktfreudig sein. Mit dem Referenzkühler sollen durchaus 1.240Mhz ohne Spannungserhöhung drin sein, was bei der Titan ziemlich schwierig bis unmöglich ist.
Leistung skaliert allerdings nur noch sehr schlecht mit der Shaderanzahl (nach Vergleich mit Titan bei mir und 780 bei Kumpel bei gleichem Takt ist die Titan nur ca. 8-10% schneller). Wie gut das OC-Potenzial sein wird lässt sich schlecht vorhersagen. Wenn man nur mit 3D Mark testet, ist vieles scheinbar stabil. Insofern bin ich da erst einmal skeptisch und erwarte gegen bestenfalls 4-5 Taktstufen mehr.

Wäre allerdings auch einem Upgrade nicht abgeneigt :D
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Wann wurde bitte PhysX AMD bzw ATi angeboten?

Genau darauf wollte ich hinaus - du hast meinen Punkt verstanden. Naja, zumindest gelesen.
 
Jetzt schauen wir mal was in 5 Tagen passiert. NV hat die 780Ti bei der Vorstellung für Mitte November angekündigt und dann auf den 7.11. korrigiert. Bei AMD ist das ja eher anders herum.
Gibt es jetzt zügig auch Customer Karten und wie ist die Verfügbarkeit? Laufen die Treiber von Anfang an gescheit oder fummelt man mit Beta Treiber herum.
Was sagen die Testberichte bezüglich Temperatur, Lautstärke und wie ist der Stromverbrauch.

Somit kann NV uns am am 7.11. zeigen, ob die es schaffen das ganze etwas professioneller anzugehen als die Konkurrenz.
 
Thanok schrieb:
Genau darauf wollte ich hinaus - du hast meinen Punkt verstanden. Naja, zumindest gelesen.
Jedem Hersteller steht es frei mantle zu unterstützen, selbst wenn man es lizenzieren müsste, laut AMD
http://www.planet3dnow.de/cms/3941-amd-verrat-etwas-zur-mantle-true-audio-und-steambox-strategie/

http://www.planet3dnow.de/cms/3823-...iger-zeitvorteil-bei-spielveroffentlichungen/

PhysX hingegen kann man als Hardwarehersteller nicht lizenzieren o.ä., also ist dein Mantle-PhysX Vergleich einfach mal für die Sitzfläche.
 
Unter dem Gesichtspunkt den du heran gezogen hast: ja. Ich bezog mich mit dem Vergleich aber nur auf deine Aussage dass AMD NV das Angebot gemacht habe Mantle zu supporten, nicht auf die Offen- oder Geschlossenheit des Systems an sich.
 
gerzerk schrieb:
Die Auflösung spielt keine Rolle. Deine Aussage belief sich auf schnell überholte Karten. Die aktuelle 290x ist in den meisten Spielen ~25% schneller als eine 2 Jahre ältere 7970. Von überholt kann da ja noch keine Rede sein.

Natürlich spielt die Auflösung eine Rolle (siehe Benchmark-Ergebnisse in den zugehörigen Testberichten hier auf CB und anderswo)

So überdimensioniert "Highend-Grafikkarten" wie die GTX 780/Titan/TI bei Full HD sind (da reicht eine deutlich günstigere GTX 770 oder eine bereits vorhandene GTX 680 noch lange dicke, dicke aus) so knapp ist die Leistung bei höheren Auflösungen ab 2,5 K bemessen. (keine FPS-Reserven für künftige Titel, je nach Spiel, denn das schwankt ja z.T. nicht unbeträchtlich)

Man merkt aber ehrlich gesagt, dass du dich damit in Wahrheit nicht wirklich auseinandergesetzt hast, weshalb ich ehrlich gesagt auch nicht glaube, dass du jemals ein Anzeigegerät mit einer entsprechend hohen Auflösung >1920x besessen und genutzt hast! (WENN dem so gewesen wäre, hättest du es wohl auch kaum je wieder hergegeben, denn Leute, die sowas sich mal zugelegt haben, werden sofort den Nutzen/Mehrwert erkennen und bestimmt nicht mehr zu Full-HD zurückkehren, weder hinsichtlich des Arbeitens mit so einem Schirm, bezogen auf ergonomische Aspekte, noch beim Spielen bezüglich des Kinoflairs, das einem so ein Schirm aufgrund seiner Bildschirmdiagonale bietet!

gerzerk schrieb:
Also, bei 30" fangen ja schon Fernseher an.

Sry, aber allein diese Anmerkung lässt bereits tief blicken:

Fernseher werden heute auch immer grösser und 32" (das waren vor ein paar wenigen Jahren noch die kleinsten von renomierten/bekannten Herstellern erhältlichen Flachbild-TVs) findet man heute schon immer seltener, da jetzt auch bei vielen LCD/LED-Herstellern (z.B. Philips) das erst bei 40" losgeht, so wie auch Jahre vorher schon bei den Plasmas. Das ist auch sinnvoll, weil sich nämlich bei einem 32"er, den man aus dem üblichen Sitzabstand heraus nutzt (sagen wir mindestens 2-2,5 m und eher mehr) Full-HD aufgrund des beschränkten Auflösungsvermögens des menschlichen Auges schon garnicht mehr richtig ausnutzen lässt. Da siehst du dann kaum einen Unterschied in der Bildqualität zwischen einer DVD (SD) und einer Bluray (HD), weil die ganzen Details, die (Full-)HD grundsätzlich bietet, unter solchen Bedingungen "verlorengehen" auf die Distanz bei der kleinen Anzeigefläche. Jemand, der sich mit der Materie auseinandergesetzt hat, versteht das auch bzw. ist sich dieses Umstandes bewusst. TVs werden heute daher immer grösser (gibt jetzt schon längst erschwingliche 47-55"er die sich auch immer mehr verbreiten und selbst 65"er sind mittlerweile keine Seltenheit mehr) Bei 4K fängt es überhaupt erst bei 55" oder gar 60" an und werden dann bereits heute 84"er angekündigt.

Und im Bereich der Desktopmonitore ist es halt ganz ähnlich, wenn z.T. auch aus anderen Gründen: Da man normalerweise immer ungefähr denselben kurzen Sitzabstand zu seinem Desktopmonitor einnimmt (60-80 cm auf dem Schreibtisch, je nach Sehschärfe des einzelnen/was einem angenehm erscheint), die Darstellung bei höheren Auflösungen aber "miniaturisiert" wird, was auch insofern wichtig ist, dass man dadurch eben PLATZ auf dem virtuellen Desktop gewinnt, so dass sich etwa unter Windows sehr viel mehr Seiten, Icons etc. darstellen lassen, was dem Multitaskinggedanken entgegenkommt und zu einem viel bequemeren und ergonomischeren Arbeiten führt, muss das selbstverständlich durch eine grössere, reale Bildschirmdiagonale kompensiert werden, weil man sonst mit einer Lupe vor dem Schirm sitzen würde/müsste.

Auch dieses Umstandes muss man sich als Nutzer bewusst sein (sind aber viele keineswegs, wie man anhand ihrer Ansichten immer wieder erkennt, obwohl dieser Umstand doch so leicht nachvollziebare und offensichtlich ist)

Wenn dann hier jemand ankommt (hab ich gestern erst in einem entsprechenden Topic hier im Forum gelesen) der einen 24"er mit 4K-Auflösung möchte, da kann man dann nur sagen, dass derjenige wirklich rein garnichts begriffen hat!

Und 30" (bei 2,5k) oder 32" (bei künftigen 4k-)Monitoren ist auf dem Schreibtisch noch keineswegs überdimensioniert (vorausgesetzt er steht nicht auf dem kleinen Schreibtisch eines Kinderzimmers, denn wie jeder weiss, der entsprechend grosse Desktopmonitore und TV-Geräte besitzt, gewöhnt man sich nur allzu schnell an solche Dimensionen und empfindet sie ganz schnell als ganz normal und möchte dann auch nicht mehr zum Mäusekino zurückkehren!

gerzerk schrieb:
Auch halte ich von solch hohen Auflösungen bei Spielen nichts, es sei man hat extrem hohe FPS-Zahlen. Mir hauen extrem hohe Auflösung fürchterlich auf die Augen, wenn das Bild nicht absolut flüssig läuft und damit meine ich 60-70 FPS aufwärts.

Tja und ich halte nichts vom Mäusekino (22-24") und mir hauen grobschlächtigen Pixel-Strukturen extrem auf die Augen: Deshalb ist ja überhaupt eine 16x fache Kantenglättung nötig, weil man die Pixel auf solchen Monitoren aus diesem geringen Sichtabstand zählen/sehen kann <- da sollten sich die Gamer, die solche Monitore nutzen mal Gedanken drüber machen, über diese Umstände, wenn sie ihre sündteuren Titan-Grakas - am Besten noch gleich mehrere davon - an einem schlunzigen 150-200 € billigen Low-Budget-TFT in Full-HD betreiben (am Besten noch mit TN-Panel für laue, ausgewaschene Farben, Hauptsache der Inputlag stimmt) Da würde ich im Zweifelsfall - je nach Genre - lieber auf einem grossen TV spielen (da fällt die geringe Full-HD-Auflösung aus der Distanz auch nicht mehr so ins Gewicht, wie bei 60 cm Abstand auf dem Schreibtisch) denn da stimmt nicht nur das "Kinoflair" aufgrund der schieren Grösse des Panels, sondern man hat falls man die richtige Wahl getroffen hatte, sowohl eine deutlich bessere Farbdarstellung, als auch gleichzeitig einen geringen Inputlag. (also die Vorteile von IPS- und TN-Panels vereint ohne deren Nachteile)

Aber viele Gamer sind halt komische Gesellen, die anscheinend nicht so den Durchblick haben, wie sie es immer gerne suggerieren...

Übrigens sei noch/wieder mal erwähnt, dass nicht jeder Spieler zwangsläufig/automatisch ein Shooterliebhaber ist und dass es tatsächlich noch ein paar andere Genres gibt. Im Gegenteil, mancher hasst dieses (stumpfsinnige) Genre sogar. Und für RTS z.B., braucht man keine überdimensionierten Frame-Raten jenseits der 60 FPS. Da kommt man im Zweifelsfall auch mal mit deutlich weniger aus! (Dasselbe gilt auch für Hack & Slay-Spiele wie Diablo und andere Genres)

Ich finde es aber immer wieder "lustig" wie oft und mit welcher fast schon dreisten Selbstverständlichkeit einem unterstellt wird, man würde mit einer bestimmten Auflösung unterwegs sein (Full-HD) oder man würde bestimmte Genres (FPS) zocken. Auch das lässt tief blicken (Egozentrik = von sich auf andere schliessen, so als würde es nichts Anderes geben, weil man selbst ja nichts anderes kennt/nutzt)
 
Zurück
Oben