News Nvidia GeForce GTX 780 Ti abgelichtet und angetestet

Thanok schrieb:
Aber vergleicht man die Karten an sich, so wirkt NV doch wesentlich fortschrittlicher, bzw. reifer als AMD.
Die AMD Karten sind stromhungriger und lauter als ihre Nvidia Gegenstücke und wirken teilweise (290X, 7970 Ghz) wie die Brechstange um nach vorne zu kommen.
Wesentlich fortschrittlicher bzw. reifer. So ein Blödsinn :freak:
Und noch einmal: Nur die absoluten High End Chips sind wirklich "stromhungriger" als Nvidias Konkurrenz. Die Mittelklasse Chips geben sich nichts. Das sind Fakten. Verallgemeinerungen wie "wesentlich fortschrittlicher" sind hier völlig daneben. Versuch doch die Sache trotz deiner Titan objektiv zu sehen...
Und AMD Karten sind nicht generell lauter, nur der Referenzkühler ist lauter. Noch so eine blöde Verallgemeinerung.


Thanok schrieb:
Und mal ehrlich, Hand aufs Herz: Wenn ihr die Wahl habt, eine 780 OC für 430€ zu kaufen, oder eine 290X für den gleichen Preis: Würdet ihr dem Schreihals den Vorzug geben? Ich persönlich nicht. Alternativ kann man natürlich dass Refdesign für 417€ zum Vergleich heranziehen. Langsamer, aber dafür in den anderen Belängen Überlegen.
Ich würde ganz klar die 290X nehmen, weil generell schneller, aktueller, man den Chip auch übertakten kann, DX11.2, das Potential von TrueAudio&Mantle und weil Konsolen auf GCN setzen.

Thanok schrieb:
Abseits der Performance sieht es für NVidia aber weitaus rosiger aus. Die Grünen Karten verbrauchen weniger, sind leiser und auch edler (Metall vs Plastikbomber).
...:freak: langsam wirds echt anstrengend. Jetzt spielt auch noch die Abdeckung des Kühlkörpers eine Rolle. Ernsthaft?
Na klar, und natürlich generell leiser und vor allem, ganz ganz wichtig, entscheidend weniger Verbrauch. Und das kommt von einem User, der seine CPU und vor allem die GPU deutlich übertaktet. Lächerlich.
 
zeedy schrieb:
Wesentlich fortschrittlicher bzw. reifer. So ein Blödsinn :freak:
Und noch einmal: Nur die absoluten High End Chips sind wirklich "stromhungriger" als Nvidias Konkurrenz.
Dann korrigiere ich mich und erwähne ausdrücklich dass ich hier die High-End Chips vergleiche. Und da steht meine Aussage dass die NV Chips, bzw. Karten reifer wirken.
Bei meinen Äußerungen zur Lautstärke habe ich mich, wie ich auch geschrieben habe, auf die Referenzdesigns bezogen, weil das ja quasi die Version der Karte ist wie der Hersteller sie vorsieht. Und da liegen aktuell leider kleine Welten zwischen beiden.

Mente schrieb:
Ich würde ganz klar die 290X nehmen, weil generell schneller, aktueller, man den Chip auch übertakten kann, DX11.2, das Potential von TrueAudio&Mantle und weil Konsolen auf GCN setzen.
Du vergisst dass man die 780 ebenfalls OC'en kann - auch die OC Versionen.
Letztlich gewinnt die (~5-10% langsamere) 780 mit OC laut CB mindestens 28% dazu, die 290X kommt auf maximal 22%. Ich habe hier bewusst auch die für die 780 nachteiligen Werte gewählt.
Dadurch sind beide Karten unter "Max-OC" etwa gleich schnell. Allerdings: Die 780 kommt auf 383 Watt Verbrauch, die 290X auf 434 Watt.
Bei der Lautstärke steht es 53,5db zu 58,5db.
OC Vergleiche sind aber meiner Meinung nach zu sehr Abhängig vom Chip, weshalb ich lieber Karten Vergleiche die es so auf dem Markt gibt.

Des weiteren: DX 11.2 wird aktuell von keinem Game Unterstützt, DX 11.1 kommt immerhin schon auf 2. Da ist PhysX weiter verbreitet.
Das Potential von TrueAudio und Mantle ist so eine Sache... Die Idee ist gut, aber ähnlich wie bei PhysX steht und fällt die Technik mit den Supportern. Zur Zeit wird Mantle gehypted wie ein Wunderkind und TrueAudio ist ja sowieso das beste Produkt aller Zeiten. Das Problem: Bisher nützen einen diese Technologien genau gar nichts. Bis sich da etwas tut vergehen ein paar Jahre und bis dahin ist die 290X schon wieder oll. Und dann ist eben immer noch das Risiko da dass sich die Techniken doch nicht etabliert haben. Das ist ja beileibe nicht die erste Tolle Idee die ein GraKa Hersteller hatte.
Persönlich halte ich GSync da für zukunftsträchtiger, da die Programmierer damit nichts am Hut haben und die Monitorhersteller den zusätzlichen Aufwand dann ja noch bezahlt kriegen.
Aber wer weiß, vielleicht wird Mantle ja wenigstens halb so gut wie alle sagen - dann würde das Ding eine Menge bringen. Aber bis dahin ist es ein reiner Marketingbegriff für AMD Fanboys.

Und dass die Konsolen auf GCN setzen ist so eine Sache. Grundsätzlich ist das ein Vorteil für AMD. Aber die Frage ist wie weit sich die Optimierungen auf den PC auswirken. Da müssen wir auch noch ein, zwei Jahre warten bis sich die Industrie darauf halbwegs eingestellt hat.

Mente schrieb:
...:freak: langsam wirds echt anstrengend. Jetzt spielt auch noch die Abdeckung des Kühlkörpers eine Rolle. Ernsthaft?
Na klar, und natürlich generell leiser und vor allem, ganz ganz wichtig, entscheidend weniger Verbrauch. Und das kommt von einem User, der seine CPU und vor allem die GPU deutlich übertaktet. Lächerlich.
Ich habe es nicht explizit als Vorteil gemeint, aber die neuen NV-Kühler sehen nunmal wesentlich wertiger aus als die AMD-Derivate. Das ist zwar kein Vorteil, aber als vorhin die Karten mit teuren Uhren verglichen wurden konnte ich nicht widerstehen.

Btw: Die CPU ist Übertaktet weil ich zur Zeit viele ältere Spiele Zocke und für diese massive Single-Thread Leistung brauche. Und die GraKa läuft übertaktet weil ich die Games natürlich noch etwas "tune".
Stromverbrauch ist für mich persönlich trotzdem nur indirekt relevant: Die Wärmeabfuhr. 250 Watt lassen sich leichter und somit auch leiser abführen als 300 oder 350 Watt. Genau deswegen bin ich da so hinterher.

Außerdem weiß ich dass es auch Nutzer gibt (die Mehrheit), die nicht übertakten. Für die ist Stromverbrauch möglicherweise relevanter als für mich. Daher sehe ich keinen Grund diesen nicht in das Gesamtpaket "Grafikkarte" einfließen zu lassen. Übrigens ist meine Titan mit diesen Settings schneller und sparsamer als eine 290X @Max OC ;)
Tut mir Leid, der musste sein.

@Über mir: Das hat nichts mit Grüner Brille, sondern mit Fakten zu tun. Ich gestehe dass ich zuweilen zu etwas übertriebenen Formulierungen neige, aber der Kern stimmt leider zur Zeit.
 
Naja solang der Umgangston sympathisch und kultiviert wie hier abläuft, kann man jemanden auch eine gewisse Markenpräferenz durchgehen lassen. Also von daher treffen hier eben Sichtweisen aufeinander die jeweils auch nachvollziehbar sind.
 
@Thanok
Deine Argumentation ist nicht schlüssig.
Am Anfang nimmst du den angeblich höheren Verbrauch beim OC als Argument gegen die R290X und am Ende sagst du, dass dir der Verbrauch egal ist, was denn nun?
Dann lobst du PhysX (von welchen wichtigen Spielen wird das noch mal genutzt?) und meinst DX11.1 und 11.2 wäre total sinnlos, weil es eh keiner nutzt (wie alt sind diese Technologien noch mal? und wie lange dauern Spielentwicklungen?).
Und dann noch dein „Argument“ mit G-Sync. Sorry, aber wie oft kaufen sich denn Gamer einen neuen Monitor? Mittlerweile dürften fast alle Full HD haben und der Bedarf ist somit gesättigt, ist doch klar, dass G-Sync somit eine Totgeburt ist.
 
So unschlüssig ist das gar nicht. Zwar ist mir persönlich die Leistungsaufnahme nicht so wichtig, aber vielen anderen schon. Da die Karten nicht bloß für mich sondern für alle veröffentlicht werden, versuche ich einen objektiverem Standpunkt aus Sicht des Normalen Kunden einzunehmen. Und für diese Kunden ist die Leistungsaufnahme durchaus wichtig.

Des weiteren habe ich nie PhyX gelobt. Ich bezeichne das Ding seit jeher als Nischenprodukt ohne Marktrelevante Verbreitung, habe es aber angeführt als Vergleichswert für die Verbreitung von DX 11.1/2 und natürlich Mantle. PhysX ist meiner Meinung nach eine feine Sache, aber nur dann wirklich nützlich wenn viele Titel es unterstützen- Dies wird wohl nie der Fall sein.

Und G-Sync finde ich besser/Erfolgsversprechender als diese Softwarelösungen weil der Aufwand der Nutzung für die Hersteller geringer ist. Man baut ein Teil in den Monitor ein, bzw. der Kunde rüstet es selbst nach (Sofern es noch weitere Kits gibt). In jedem Falle trägt der Kunde jedoch die Kosten, womit man der Industrie Kosten erspart und dadurch die Verbreitung fördert.
Die Verbreitung wird aus den von dir genannten Gründen lange dauern, aber die Technik wird durch diese Unabhängigkeit nicht durch die Industrie sterben. Bei APIs ist dies bei fehlender Unterstützung anders.

Bei Interesse kann ich das gerne nochmal erläutern, ich sitze gerade aber nur am Tablet und habe entsprechend wenig Lust noch mehr zu tippen. Aus selbigem Grund bitte ich etwaige Rechtschreib- bzw. Wortfehler zu entschuldigen. Die Autokorrektur ist leider nicht immer hilfreich.
 
Achso ja, DX11.2, TrueAudio und Mantle sind so naja, sone Sache weiße schon. Aber PhysX und vor allem G-Sync sind voll super! Vor allem, weil man dafür einen speziellen Monitor braucht! :lol:

Ich fand die Idee hinter G-Sync sehr interessant, doch als ich erfuhr dass man dafür irgendein G-Sync Modul dazu kaufen muss, bzw. gleich einen neuen Monitor, hat sich die Sache für mich erledigt. Für mich zählen nur die Features, die ich beim Kauf einer Grafikkarte habe, und keine Features, die ich nur mit einer zusätzlichen (auch noch großen) Investition haben könnte.
Zur Zeit wird Mantle gehypted wie ein Wunderkind und TrueAudio ist ja sowieso das beste Produkt aller Zeiten. Das Problem: Bisher nützen einen diese Technologien genau gar nichts. Bis sich da etwas tut vergehen ein paar Jahre und bis dahin ist die 290X schon wieder oll.
Auch an diesem Satz merkt man, dass du die Sache wirklich nicht objektiv betrachtest.
TrueAudio und Mantle sind also völlig uninteressant, weil noch gar nicht integriert, und G-Sync ist toll, obwohl diese Technologie einem noch weniger nützt. Ich glaub es gibt momentan nur einen einzigen Monitor, der G-Sync unterstützt und ich weiß gar nicht, ob man G-Sync schon jetzt als Privatperson verwenden kann. Soweit ich weiß, nicht ;)

Ich halte Mantle & TrueAudio nicht für das Beste was es gibt, ich finde nur dass diese beiden Technologien, genau wie G-Sync, wirklich gute Ideen sind mit großem Potential. Aber der Unterschied ist eben, dass G-Sync ein teures Extra ist.

Und noch zur Leistungsaufnahme: Auch für mich spielt sie eine wichtige Rolle. Für mich ist aber ein Produkt mit einer geringeren Leistungsaufnahme bei gleicher Leistung nicht gleich das bessere Produkt. Der Preis spielt auch eine wesentliche Rolle. Erstens unterscheide ich zw. Mainstream GPUs und High End GPUs. Bei High Ends gehts in erster Linie um Leistung. Bei Mainstream Karten spielt beides, Leistung uns Leistungsaufnahme eine gleich wichtige Rolle. Und zweitens ist auch die Differenz wichtig. 30-40W Differenz unter Last ist mMn zu vernachlässigen. Es dauert einfach viel zu lange bis dieser Unterschied in € zählbar ist. Im Desktop Betrieb wäre das natürlich eine andere Geschichte.

PS: Momentan bevorzuge ich AMD, aber es fällt mir nicht schwer anzuerkennen, dass Nvidia mit dem GK110 in der 28nm Generation wohl die etwas stärkere GPU hat.
Ich finde es albern und schade, dass man hier praktisch mit niemandem objektiv über solche Themen diskutieren kann.
 
GSync ist für mich toll weil ich zum einen die Grundidee sehr gut finde. Mantle hat auch eine Tolle Grundidee. Und PhysX auch. TrueAudio ist eigentlich auch eine tolle Sache.
Dann kommt aber das "aber": Die Hersteller.

Klar braucht man für Gsync einen speziellen Monitor oder ein Umbaukit. Und da man sich nicht alle 2 Jahre mit einem neuen Monitor eindeckt werden GSync Monitore auch nicht gerade ein Verkaufsschlager sein. Trotzdem sehe ich in der Technologie mehr Potenzial für die Zukunft als für PhysX und Co.

Wie bereits erwähnt sind die Software-Lösungen komplett vom Support abhängig. Die Entwicklerstudios müssen zusätzliche Zeit und somit Geld investieren um diese Technologie zu unterstützen und bekommen das Geld kaum durch Mehrverkäufe zurück. Jedenfalls kenne ich niemanden der sich ein Spiel kauft weil PhysX drauf steht. Das heißt die Studios investieren Geld, gewinnen im Gegenzug aber kaum/keine Kunden dazu.
Bei Gsync werden die Kosten auf die Kunden ausgelagert. Der Hersteller pappt diese Platine in den Monitor, verlangt mehr Geld dafür und wen diese Technik interessiert der kauft das ganze dann. Die Kosten liegen in diesem Fall beim Kunden und bei NV. Dadurch hat Gsync bei den Herstellern einen wesentlich einfacheren Stand als PhysX, Mantle und andere Softwarelösungen. Und ohne die Hersteller die die Technik unterstützen ist auch die tollste Technik oder API nutzlos.

Die Verbreitung von Gsync wird sicherlich nicht allzu groß sein, dafür sind die Kosten wohl auch zu hoch. Aber dadurch dass einzig und allein der Kunde entscheiden muss ob der bereit ist mehr Geld dafür auszugeben und nicht irgendein Hersteller, hat die Technik einen besseren Stand.

Ich will hier nicht Gsync mit Mantle aufwiegen, das geht auch gar nicht weil beide auf vollkommen andere Dinge abzielen. Aber aufgrund der Tatsache dass Gsync die Hersteller finanziell nicht belastet hat das für mich mehr Potenzial sich dauerhaft durchzusetzen, auch wenn der Zeitraum bis dahin länger sein wird.
 
Sowas wie GSync hätte es (herstellerunabhängig) schon mit Einführung der ersten TFT-Monitore bzw. DVI geben müssen.

Ergänzung:
Es hätte einfach von Anfang an so sein müssen, dass der TFT-Monitor seine Bildfrequenz mit der Ausgabe der Grafikkarte synchronisiert. Feste Bildfrequenzen machen da, im Gegensatz zu Röhrenmonitoren (die ja das Bild immer wieder zeilenweise auffrischen mussten), einfach keinen Sinn, und führen zu Mikrorucklern, Tearing und ähnlichen Effekten.

Jetzt ist es aber schon reichlich spät, denn es ist schon eine gewaltige Hürde, wenn man sich dafür extra einen neuen Monitor anschaffen muss und es nur mit aktuellen Grafikkarten eines bestimmten Herstellers funktioniert. Und auch nicht irgendeinen Monitor, sondern es muss ein spezielles, kompatibles Gamer-TN-Modell sein, was wieder Kompromisse bei Auflösung und Bildqualität bedeutet.

Ich würde meinen schönen neuen 2560x1440-PLS-Monitor jedenfalls nicht für ein FullHD-Gamer/TN-GSync-Gerät eintauschen wollen. Das wäre ein Schritt vor und drei zurück.
 
Zuletzt bearbeitet:
Wobei ich immer noch nicht ganz verstehe wieso das ganze nur bei TN-Panels gehen soll. Klar, die reagieren etwas schneller, aber die Grundidee ist doch lediglich dass der Monitor das Bild erst aufbaut wenn die GraKa es fertig gerendert hat: Da kann das Panel doch eigentlich egal sein?

Wie dem auch sei, diesbezüglich müssen wir eh erstmal die Veröffentlichung und genaue Tests abwarten. Sollte das Ding nur halb so gut sein wie angekündigt, könnte ich mir durchaus Vorstellen meinen Gaming-Monitor damit umzurüsten. Vorrausgesetzt es gibt dann ein passendes Umrüstpaket.
 
Zuletzt bearbeitet:
Nvidia hat so einige Alleinstellungsmerkmale, die zwar in der Theorie gut klingen aber nicht viel nützen.
G-Sync hätte es schon längst geben sollen, aber es dauert noch bis es besser verfügbar ist und verursacht jetzt erst mal hohe Mehrkosten. Vor allem kaufe ich mir garantiert keinen teureren G-Sync Monitor oder dieses Zusatzmodul, solang es proprietäre Nvidia-Technologie ist. Das würde mich nur dazu zwingen, mir auch die nächste Grafikkarte garantiert bei Nvidia zu kaufen. Da kann ich mir auch gleich ne Konsole hinstellen, wenn ich mich derart gängeln lasse.
Mit GPU-Physx ist es genau das selbe. Beeindruckende physikalisch korrekte Szenen ohne Ruckelei klingt sehr gut, aber man kriegt leider nur mehr Effekte und nichts was die Spielmechanik beeinflusst. Um auch jedem noch so blinden Spieler den Unterschied deutlich zu machen sind die Effekte leider auch noch total übertrieben. Nach dem ersten Aha-Erlebnis stören sie mich nur noch, weil das Spiel dahinter total untergeht. So als wäre James Bond gerade mit dem Bond-Girl im Hotelzimmer, aber man sieht nicht was passiert, weil um die beiden herum ständig alles explodiert. Runterdrehen erlaubt kaum ein Spiel und ausschalten ist keine Alternative. Nvidia sorgt schon dafür, dass ohne GPU-Unterstützung wenig bis gar keine Effekte vorhanden sind.
Auf der anderen Seite hat AMD auch solche Technologien. Bei Mantle bin ich z.B. recht zwiegespalten. Einerseits ist es momentan noch proprietär und selbst wenn die Spezifikationen veröffentlich werden ist die Chance, dass Nvidia es unterstützt nahe Null. Also erst mal mehr Aufwand für die Entwickler. Andererseits kann es nicht so wie bisher weiter gehen. Die Spieleentwickler optimieren ihre Aufrufe an die Grafikbibliothek und die Treiberentwickler erkennen das Spiel und optimieren/verbiegen die Aufrufe dann, damit es auch schnell läuft. Und mit jedem Patch und jeder Treiberversion ist es ein ewiges gegeneinander "optimieren" und wir haben als Ergebnis abstürzende Spiele/Treiber. Fast alle größeren Titel entstehen mittlerweile sowieso in Zusammenarbeit mit einem der beiden Hardwarehersteller. Dagegen scheint ein schlanker, hardwarenaher Treiber - Mantle - an dem nichts weiter herumgeschraubt wird wie ein Segen.
 
Der Punkt bei Gsync ist, im Gegensatz zu bisherigen Technologien, das es prinzipiell offen ist. NV kann das ganze natürlich schlecht auf AMD Karten anpassen, aber grundsätzlich sei es möglich dass auch AMD G-Sync unterstützt. Die Frage ist nur: Werden/Wollen sie es? Und wie groß ist der Aufwand wirklich? Laut Nvidia war das ganze ziemlich Aufwendig, was es natürlich noch etwas unwahrscheinlicher macht dass AMD da mitgeht.

Ich vermute aber dass es wie vieles andere leider ein proprietäres NVidia-Kind bleiben wird, wodurch mal wieder eine schöne Technik verschwendet wird.
 
Herdware schrieb:
Sowas wie GSync hätte es (herstellerunabhängig) schon mit Einführung der ersten TFT-Monitore bzw. DVI geben müssen.

Ergänzung:
Es hätte einfach von Anfang an so sein müssen, dass der TFT-Monitor seine Bildfrequenz mit der Ausgabe der Grafikkarte synchronisiert. Feste Bildfrequenzen machen da, im Gegensatz zu Röhrenmonitoren (die ja das Bild immer wieder zeilenweise auffrischen mussten), einfach keinen Sinn, und führen zu Mikrorucklern, Tearing und ähnlichen Effekten.

Jetzt ist es aber schon reichlich spät, denn es ist schon eine gewaltige Hürde, wenn man sich dafür extra einen neuen Monitor anschaffen muss und es nur mit aktuellen Grafikkarten eines bestimmten Herstellers funktioniert. Und auch nicht irgendeinen Monitor, sondern es muss ein spezielles, kompatibles Gamer-TN-Modell sein, was wieder Kompromisse bei Auflösung und Bildqualität bedeutet.

Ich würde meinen schönen neuen 2560x1440-PLS-Monitor jedenfalls nicht für ein FullHD-Gamer/TN-GSync-Gerät eintauschen wollen. Das wäre ein Schritt vor und drei zurück.

Warum? PLS ist doch auch hochgradige Gülle, miese Farbräume, hohe Schwarzwerte(niedriger Kontrast), übermäßig schnell sind sie auch nicht.
Einzig die Blickwinkel sind besser als TN, aber schlechter als IPS/VA.
Hübsch zu sehen wie die Lemminge auf die "Premiumpanel" Propaganda von Samsung hereinfallen.
 
@tombrady
Tut mir leid, aber ich vertraue diversen Reviews von renomierten Seiten und meinem persönlichen Eindruck mehr, als deiner (nicht gerade überzeugend vorgebrachten) Meinung. ;)
PLS ist auf einem Niveau mit sehr guten IPS-Monitoren. (Ausgenommen spezielle, werksmäßig exakt vorkalibrierte Profi-Monitore von Eizo und Co., die gewöhnlich das Vier- bis Zehnfache kosten. Aber ich bin kein Profi-Grafiker, der 100% perfekte Farbräume braucht, sondern ich will nur einen erschwinglichen, guten Allrounder.)

Zur 780Ti:
In den technischen Daten der Zotac 780Ti steht, dass wie bei allen anderen Kepler-Karten, wieder nur "Microsoft DirectX 11.2 (feature level 11_0)" unterstützt wird.
Das war ja auch zu erwarten. Es hat mich stark gewundert, dass zuerst ohne Einschränkugenn von DX11.2 die Rede war.

Ob die fehlende vollständige (Hardware-)Unterstützung von DX11.1 und 11.2 irgendwann mal ins Gewicht fallen wird, bleibt abzuwarten. Aber ich vermute eher, dass die allermeisten Kepler-Karten wegen nicht mehr zeitgemäßer Leistungsfähigkeit ausgemustert sein werden, bevor fehlende DX-Features zu einem echten Problem werden.
Zumal die meisten Features von DX11.1 und 11.2 eh eher auf Tablets und Smartphones abzielen, als auf PC-Spiele.
 
Zuletzt bearbeitet:
Herdware schrieb:
@tombrady
Tut mir leid, aber ich vertraue diversen Reviews von renomierten Seiten und meinem persönlichen Eindruck mehr, als deiner (nicht gerade überzeugend vorgebrachten) Meinung. ;)
PLS ist auf einem Niveau mit sehr guten IPS-Monitoren. (Ausgenommen spezielle, werksmäßig exakt vorkalibrierte Profi-Monitore von Eizo und Co., die gewöhnlich das Vier- bis Zehnfache kosten. Aber ich bin kein Profi-Grafiker, der 100% perfekte Farbräume braucht, sondern ich will nur einen erschwinglichen, guten Allrounder.)

Und was genau macht ihn besser als ein IPS?
Ein guter IPS kann bei den Schaltzeiten mithalten und liegt im Farbraum besser.
http://www.prad.de/new/monitore/test/2012/test-dell-u2713hm-teil10.html#Fazit
 
Ich sage nicht, dass PLS besser ist als IPS. Es ist ganz genauso gut. Tatsächlich sind die beiden Panel-Typen sich so ähnlich, dass es eigentlich keinen Sinn macht, überhaupt zwischen IPS und PLS zu unterscheiden.

Der Grund, warum ich mich seinerzeit für den ASUS PB278Q entschieden habe und nicht z.B. für den Dell U2713HM, war einfach nur Verfügbarkeit und Preis. Mehr nicht.
Beides sind ganz hervorragende Monitore.

Die minimal schlechteren Werte des ASUS beim werksseitig voreingestellten sRGB-Farbraum kann man messen, aber nicht mit bloßem Auge bemerken. Jedenfalls nicht, wenn man kein Profi-Grafiker ist, der auf 100% exakte Farbwiedergabe angewiesen ist. Außerdem ist der PB278Q auch dabei immer noch besser als die meisten IPS-Monitore.

Deine merkwürdige Abneigung, ja gerade Verachtung für PLS kann ich einfach nicht nachvollziehen. Hat Samsung dir irgendwas getan? :lol:
 
Zuletzt bearbeitet:
Herdware schrieb:
Ergänzung:
Es hätte einfach von Anfang an so sein müssen, dass der TFT-Monitor seine Bildfrequenz mit der Ausgabe der Grafikkarte synchronisiert. Feste Bildfrequenzen machen da, im Gegensatz zu Röhrenmonitoren (die ja das Bild immer wieder zeilenweise auffrischen mussten), einfach keinen Sinn,


Auch bei TFTs wird das Bild zeilenweise aufgefrischt. Da ist vom Bildaufbau überhaupt kein Unterschied zu CRTs. Der Unterschied besteht nur darin, dass ein TFT-Pixel dauerhaft leuchtet, ein CRT-Pixel nicht.
 
@kisser

Also das wäre mir komplett neu.

Bei TFT-Displays handelt es sich doch einfach um eine Matrix aus Transistoren. Da muss nichts zeilenweise beschrieben werden. Man kann einfach direkt (und in beliebiger Reihenfolge) den Zustand jedes Pixels bzw. Subpixels ändern.
Das ist etwas komplett anderes, als bei Röhrenmonitoren, wo ein Elektronenstrahl zeilenweise den Bildschirm abfährt und Pixel zum Leuchten anregt.
 
Die Grafikkarte überträgt über DVI/HDMI/etc vollständige Frames (also alle Pixel) und der TFT gibt die natürlich zeilenweise aus. (Frag dich doch mal, warum es horizontales Tearing bei TFTs und abgschaltetem VSync gibt;), man sieht hierbei doch, dass zeilenweise übertragen wird).
 
Das Tearing entsteht doch dadurch, dass (ohne VSync) schon im Freambuffer Teile von unterschiedlichen Frames liegen. Und die bringt der Monitor dann auch pflichtbewusst so auf den Schirm.

Du hast natürlich trotzdem Recht, dass nicht alle Transistoren eines TFT-Displays absolut zeitgleich angesprochen/geschaltet werden. Aber für jeden praktischen Aspekt kann man das vereinfachend so annehmen. Es ist jedenfalls etwas komplett anderes, als bei den Röhrenmonitoren, bei denen ein Elektronenstrahl mit einer definierten horizontalen und vertikalen Frequenz die Pixel zeilenweise auf den Bildschirm "schreibt".

Und wir sind uns ja auch einig, dass ein TFT diese festen Frequenzen (60Hz und Co.) nicht braucht, um ein stabiles (möglichst flimmerfreies) Bild zu produzieren. Bei einem TFT reicht es eigentlich, das Bild nur dann "aufzufrischen", wenn sich am Bildinhalt etwas ändert.
Deshalb wäre es in dem Fall einfach praktischer, wenn die Bildfrequenzen der Grafikkarte und des Monitors synchronisiert sind und genau das macht G-Sync und schafft so Probleme wie Tearing und Mikroruckler durch stark schwankende Framelatenzen oder auch durch Gegenmaßnahmen wie VSync verursachte Verzögerungen aus der Welt.

Das hätte man wie gesagt besser gleich bei der Einführung der TFTs und der entsprechenden digitalen Verbindungen (DVI und Co.) so regeln müssen. Nicht erst jetzt nachträglich und mit den Einschränkungen, dass man dafür einen bestimmten kompatiblen Monitor und bestimmte kompatible Grafikkarten braucht.

Aber ich verstehe auch, warum das damals nicht gemacht wurde. Es war halt ein fließender Übergang von Röhren auf TFT und deshalb war es praktikabler, im Sinne der Kompatibilität die alten Methoden zu übernehmen. Die Grafikkarten mussten genauso mit Röhren wie mit TFTs funktionieren und umgekehrt ein TFT genauso mit DVI wie mit VGA.

Außerdem hatte man damals noch ganz andere Sorgen, was die Bildqualität angeht. Das was G-Sync verbessert, kann man guten Gewissens als 1st-World-Problem bezeichnen. :)

Wer die Zeiten der Röhrenmonitore, besonders in den 80ern, noch miterlebt hat, der erinnert sich mit Grausen an die damals wirklich störenden Probleme. Z.B. dass die Monitor-Frequenz überhaupt hoch genug ist, um ein ansatzweise flimmerfreies Bild hinzubekommen. Das schließt auch Schweinereien wie Interlacing (Zeilensprungverfahren wie beim Fernsehn) ein.
Oder auch simple Dinge wie, dass viele der damals gängigen Auflösungen gar nicht dem 4:3-Seitenverhältnis der Monitore entsprachen. Man hatte also entweder ein verzerrtes Bild oder dicke Trauerränder oder auch beides. Die meisten günstigen Consumer-Monitore hatten gar auch nicht die nötigen Bildeinstellungsfunktionen, um für ein verzerrungfreies, seitengerechtes Bild zu sorgen. Und dann gab es noch Unschärfe, Geisterbilder, Farbränder usw. ...
(Der C64 z.B. hatte damals diese merkwürdige Farbkombination aus hellblauer Schrift auf dunkelblauem Grund, weil das eine der wenigen Kombinationen war, die auf einem NTSC-Fernseher keine störenden Farbränder um die Buchstaben erzeugte. :) )

Wenn man sich an diese Zeiten zurückerinnert, sind wir schon verdammt weit gekommen, dass man jetzt sowas wie G-Sync erfindet, um Probleme abzustellen, die man eigentlich meist kaum bemerken kann.
Bis vor ein paar Jahren hat da auch kaum ein Hahn nach gekräht und nicht mal renomierte IT-Websites haben auf sowas geachtet.
 
Zuletzt bearbeitet:
Zurück
Oben