News Erste Eindrücke zu Nvidias „G-Sync“-Technologie

Hmm, so langsam kann man Nvidia auch keine gute Marketing bzw. Produktstrategie mehr zutrauen. Das kann Mantle von AMD nicht das Wasser reichen, schon alleine deswegen, weil die Ansätze unterschiedlich sind.
 
Nilson schrieb:
@ lordZ im Treiber gibts die Option dafür. Meist wird aber der triple buffer standartmäsig verwendet.
Jein

1. Im Treiber lässt sich, sowohl bei Nvidia als auch bei AMD, Triple Buffering nur für OpenGL erzwingen, nicht für Direct3D. Früher stand das mal unter der Treibereinstellung. Dass das da nicht mehr steht, bedeutet leider nicht, dass die Einstellung jetzt auch für Direct3D funktionieren würde - das tut sie nicht. Ums in Direct3D zu erzwingen müsste man Tools wie RadeonPro nutzen, die aber ihrerseits wieder Spielabsturzprobleme hervorrufen können.

2. Es gibt leider eine ganze Reihe Top-Titel, die standardmäßig nur Double Buffering nutzen.
 
@shepard155

Was hat der Mantle Schrott mit so einer adaptiven Technik am Hut?

Ne Software Api die schon durch Microsoft zum Scheitern vorverurteilt ist,mit nem in Hardware gegossenen Tool zu vergleichen das schon jetzt alle Spiele supportet LOL

Wie gut AMD Versprechungen umsetzen kann sieht man ja an ihrem fantastischen neuen Düsentriebwerk äh Referenzkühler
 
Zuletzt bearbeitet:
scully1234 schrieb:
@shepard155

Was hat der Mantle Schrott mit so einer adaptiven Technik am Hut?

Ne Software Api die schon durch Microsoft zum Scheitern vorverurteilt ist,mit nem in Hardware gegossenen Tool zu vergleichen das bereits jetzt für alle Spiele geeignet ist LOL

Wie gut AMD Versprechungen umsetzen kann sieht man ja an ihrem fantastischen neuen Düsentriebwerk äh Referenzkühler

das denke ich mir auch gerade ^^ vor allem die aussagen von AMD die sich immer wieder in Luft auflösen, wenns denn endlich rauskommt.
zur Erinnerung: wir werden mit der neuen graka die Titan in den Boden stampfen!, oder: AMD torpediert Nvidia mit Benchmarks zur R9 290X.
aha, deshalb zeigt sich auch im fest, dass die R9 290X ca. 1% langsamer ist.
nichts desto trotz ist der preis echt okay aber leistungsaufnahme, temp. und Lautstärke einfach ein no go.
und von mantle haben wir noch NICHTS gesehen. keine beweise, gar nichts. und hier wird's schon hochgelobt wie GTA V ^^
ich würde mich echt freuen wenn AMD der große Wurf gelingt, aber bisher kam nichts außer heiße Luft von AMD. und das nicht nur wegen des referenzkühlers ;-)
 
also verstehe ich die vorteile der neuen g-sync technologie so:

man benötigt nur noch entsprechende hardware, die mind. 30fps auf den schirm zaubert - dann gibt es keine unterschiede mehr zu 60, 90 120 oder 144 fps.

schießt man sich als grafikkartenhersteller damit aber nicht selbst ins bein? warum sollte ich eine 800€ grafikkarte kaufen, wenn die 500€ billigere variante das gleiche resultat erzielt, nämlich flüssige, tearingfreie wiedergabe auf dem schirm?
 
Kasmopaya schrieb:
Mit einem Tata kommt man auch von A nach B, das wars dann aber schon. Mehr gibts dazu eigentlich nicht zu sagen.
Wenn du dazu eigentlich nicht mehr sagen kannst, versteht aber auch niemand den Zusammenhang und deine Aussage ist somit völlig wertlos.

virtualboy schrieb:
Ich würde sagen, die Grafikkarten kriegen es nicht gebacken, jetzt muss schon der Monitor mithelfen!
Was kann da denn die Grafikkarte dafür, wenn der Monitor heutzutage noch stur ganz alleine macht, was er will?

uNki schrieb:
man benötigt nur noch entsprechende hardware, die mind. 30fps auf den schirm zaubert - dann gibt es keine unterschiede mehr zu 60, 90 120 oder 144 fps.
Was die einzelnen Bilder angeht, die du siehst, da gibt's keinen Unterschied mehr. Aber was die flüssige Darstellung und alle weiteren Vorteile von mehr fps angeht, da ändert sich nicht viel.
 
@Vitec

Schon wieder so nen Äpfel u Birnen Vergleich

Du präsentierst hier ne Highendkarte deren Umsatz am gesamten Grafikkartengeschäft ein Kaninchenfurz ist im Vergleich zum Mainstream, u meinst damit begründen zu können das sowas wie Gsync obsolet ist

Zumal dabei auch noch neben des Rest des Marktes außer Acht gelassen wird das Spiele im allgemeinen auch anspruchsvoller werden u Karten wie diese eines Tages in die Knie zwingen u was dann?
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Eine proprietäre Geschichte ist für das Tearing Problem keine vernünftige Lösung.

Tja Nvidia halt. Nur Heuchler in diesem Konzern.
Ein Wunder, dass die in Sachen Steambox mit kooperieren möchten (wahrscheinlich nur um sich rein zu waschen...).

Edit: (Vom Post unter mir) Ja verstehe auch nicht wirklich wie die da alle jetzt mit Mantle vergleichen.
Wenigstens steht es Nvidia oder Intel offen den Quellcode zu nehmen und den Code für deren Hardware anzupassen (wird wohl kein Hexenwerk sein. Intels Grafiktreiber nach zu urteilen vielleicht. Aber nicht für Nvidia). Wenn sie das nicht wollen, dann brauchen sie schon mal gar nicht zu schmollen.
Aber weiterhin proprietären Mist raus zu bringen ohne auch ein Wort davon zu verlieren, dass andere Hersteller die Technik für deren Hardware anpassen könnten. Wird sicherlich kein Hexenwerk für AMD sein, mit deren GCN Grafikkarten den Chip am Monitor anzusprechen, wenn man dass denn erlauben würde. Aber das tut man ja anscheinend nicht. Also bleibt es ein proprietärer Mist.
 
Zuletzt bearbeitet:
Keine Ahnung wie man Mantle (aka Glide 2.0) mit G-Sync vergleichen kann. GS wird sich imo nur auf breiter Front durchsetzen wenn die Technik dahinter OS wird und jedem Monitorhersteller zur Verfügung steht. Nur wenn Stückzahlen erreicht werden damit das Modul unter die 150€ Aufpreis fällt wird es in irgendeiner Weise Marktrelevant.
 
Ist das ein Werbeartikel für NVidia? Ich finde es erstaunlich, dass die Altlasten eines Strahlenmonitors erst jetzt überwunden werden. Soetwas hätte bereits bei der Einführung von DVI spezifiziert werden müssen. Anstatt werden unsummen in Kopierschutzfunktionen investiert. Und wo ist die Leistung bei "Warte mit dem Senden des Bildes, bis es fertig ist".
 
Regenwürmer schrieb:
Tja Nvidia halt. Nur Heuchler in diesem Konzern.
...).

Heuchler?

"Der nächste Kühler wird besser"

Da siehst du deine Heuchelei:evillol:


Abliefern tut derzeit mal wieder nur nvidia mit innovativen Techniken die auch einen Mehrwert bieten

Bei Mantle viel blub blub um nichts u am Ende so im Hintergrund wie Trash FX oder die Kühlerheuchelei
 
Zuletzt bearbeitet:
Jetzt wird es langsam ärgerlich für uns Gamer - AMD und Nvidia sollten es jetzt gebacken kriegen ihre "Hauseigenen" Erungenschaften" frei zu geben das auch die Konkurrenz diese nutzen kann.
Das wären bei Nvidia wohl G-Sync, PhysX und bei AMD eben Mantle wenn es wirklich gut was bringt. Jetzt mal ehrlich - auf Hadware A sieht dies und das Spiel besser aus und auf Hardware B laufen wieder andere Spiele schneller - haben wir da was davon als Gamer?
 
Darkscream schrieb:
haben wir da was davon als Gamer?
Ja, Konkurrenzkampf ist doch was feines. Wäre doch scheiße, wenn sich AMD und nvidia ständig absprechen und dann den Kunden gemeinsam schröpfen und die Preise diktieren können. So muss sich das Feature erst mal beim Kunden beweisen und wird langfristig dann vom anderen übernommen.

Warum soll man noch was älteres als Kepler unterstützen?! Die Karten gehören langsam zum alten Eisen. Wer sich einen neuen TFT für G-Sync holt, hat ohnehin aktuelle Hardware drin.
 
@ lordZ:

Ich versteh den Zusammenhang schon: Alles eine Frage der Ansprüche/Qualität. Auf einem TN-Panel sieht man auch das gleiche wie auf einem IPS-Panel, aber halt nicht in der gleichen Qualität. In einem Tata kommt man auch dort hin wo man will, aber halt nicht so angenehm/schnell wie in einem 5er z. B.

Zum Thema.

G-Sync ist eine feine Sache bzw. meiner Meinung nach Mantle überlegen, auch wenn man es schwer vergleichen kann. Kauft man einmal einen Monitor welcher mit G-Sync kompatibel ist, kann man ihn für alle Spiele nutzen. Mantle geht halt nur für einen Bruchteil von Spielen ...

Steckt alles noch in den Kinderschuhen, aber ist eine gute Entwicklung mMn.
 
Zuletzt bearbeitet:
[...] Aber was die flüssige Darstellung und alle weiteren Vorteile von mehr fps angeht, da ändert sich nicht viel.

korrigiert mich, wenn ich falsch liege. ich deute:

[...] Mit G-Sync spielt es keine Rolle, ob das Bild mit 80 FPS, 50 FPS oder 40 FPS dargestellt wird. Das Bild erscheint absolut flüssig – es gibt weder ein Stottern, noch Tearing, das die Bildruhe stört. [...]

eben gerade so, dass die flüssige darstellung oberhalb von 30fps stets gegeben ist? denn gerade das soll ja der vorteil von g-sync sein. zudem lief das demo-video mit dem pendel mit 40fps flüssig - flüssiger geht es nicht.

was meinst du außerdem mit "weitere Vorteile"?
 
Wobei G-Sync ja primär von den Monitorherstellern hätte kommen müssen. G-Sync steht oder fällt sowieso mit dem Support von denen.
Wenn AMD für andere erlaubt Mantle zu nutzen, werden mit Sicherheit Lizenzkosten fällig. Das selbe würde wohl mit G-Sync sein. Irgendwann kommen die beiden auch noch drauf, dass etwas mehr Offenheit ein Vorteil für beide sein kann.
 
ebird schrieb:
IUnd wo ist die Leistung bei "Warte mit dem Senden des Bildes, bis es fertig ist".
Das es bislang kein Hersteller von Dünnschichtmonitoren getan hat. Jetzt müssen sich die GRAFIKkarten nicht nur um den Sound, sondern auch die Monitore kümmern.

Pumpi schrieb:
Es wird Monitore mit IPS und TN Panel geben die G-Sync kompatibel sind. Bis zu 177hz sind über DP Port möglich, auch @ 2560x1440p
Na immerhin. Ich befürchte nur die Auswahl an 1440p/1600p IPS Monitoren wird recht gering sein. In der News werden gerade vier Hersteller genannt, die zudem eher für ihre Spielzeugmonitore bekannt sind. Vermutlich bleiben bei meinen Kriterien (IPS, ohne Spiegel, 1440/1600p, ordentlicher Fuß) 0 übrig.

uNki schrieb:
schießt man sich als grafikkartenhersteller damit aber nicht selbst ins bein? warum sollte ich eine 800€ grafikkarte kaufen, wenn die 500€ billigere variante das gleiche resultat erzielt, nämlich flüssige, tearingfreie wiedergabe auf dem schirm?
Es ist doch genial wenn es eine die 300€ Geforce, statt einer 800€ Radeon wird. Dazu bleiben überzeugte Kunden gebunden. Wer gibt schon 100€ mehr für den Bildschirm aus, um das Feature bei einer Radeon nicht mehr nutzen zu können.
Ansonsten gibt es immer einen Grund für Mehrleistung, so wie eh und je. Besonders wenn mal irgendwann die neuen Konsolen loslegen hört die Langeweilezeit auf.
 
Zurück
Oben