News Nvidia GeForce GTX 780 Ti abgelichtet und angetestet

Ja. Nvidia-Karten kommen immer so um 15Uhr. War bei den letzten Produkteinführungen auch so.

Im Preisvergleich sind aber schon die ersten Ti aufgetaucht:
https://www.computerbase.de/preisvergleich/eu/zotac-geforce-gtx-780-ti-zt-70501-10p-a1028310.html
https://www.computerbase.de/preisvergleich/eu/msi-gtx-780ti-3gd5-a1028436.html

Und es gibt einen (sehr kleinen) Test bei Videocardz.

Ergänzung:
Der Preis der MSI GTX780Ti ist jetzt bei 649€ (bei Alternate).
Nicht gerade ein Schnäppchen, aber weniger als ich bei $699 offizieller Preisempfehlung erwartet hätte. Bzw. zumindest am unteren Ende der Skala.

Mal sehn, wie sich das entwickelt, wenn die Karte offiziell draußen ist.
Vor allem bin ich gespannt, ob es vielleicht auch gleich Custom-Modelle geben wird. Laut dem Videocardz-Test ist die Lautstärke mit dem Referenzkühler ja doch ziemlich hoch.
 
Zuletzt bearbeitet:
Nope, die hat den Standardkühler drauf.
 
Herdware schrieb:
Das Tearing entsteht doch dadurch, dass (ohne VSync) schon im Freambuffer Teile von unterschiedlichen Frames liegen. Und die bringt der Monitor dann auch pflichtbewusst so auf den Schirm.

Nein. Im Framebuffer liegen immer nur ganze Frames. Im Frontbuffer der Frame, der gerade zum Monitor übertragen wird, während im Backbuffer das neue Bild berechnet wird.
Diese Buffer tauschen ihre Funktion

- ohne Vsync: ist das neue Bild im Backbuffer fertig berechnet, wird dieser zum Frontbuffer -> Ausgabe des neuen Bildes (ist der Monitor noch nicht fertig mit der zeilenweisen Darstellung des alten Bildes -> Tearing)

- mit Vsync: Das Tauschen der Buffer durch die Grafikkarte erfolgt erst, wenn der Monitor das alte Bild komplett ausgegeben hat; solange muss die Grafikkarte eben warten und Däumchen drehen.

Herdware schrieb:
Du hast natürlich trotzdem Recht, dass nicht alle Transistoren eines TFT-Displays absolut zeitgleich angesprochen/geschaltet werden. Aber für jeden praktischen Aspekt kann man das vereinfachend so annehmen. Es ist jedenfalls etwas komplett anderes, als bei den Röhrenmonitoren, bei denen ein Elektronenstrahl mit einer definierten horizontalen und vertikalen Frequenz die Pixel zeilenweise auf den Bildschirm "schreibt".

Es ist nur die Ansteuerung anders. Die Bildpunkte werden zeilenweise von links oben nach rechts unten adressiert und entsprechend dem übertragenen Farbwert angesteuert.

Herdware schrieb:
Und wir sind uns ja auch einig, dass ein TFT diese festen Frequenzen (60Hz und Co.) nicht braucht, um ein stabiles (möglichst flimmerfreies) Bild zu produzieren. Bei einem TFT reicht es eigentlich, das Bild nur dann "aufzufrischen", wenn sich am Bildinhalt etwas ändert.

Das liegt aber nur daran, dass der Bildpunkt (Pixel) eines TFT solange angesteuert wird, bis er das nächste mal adressiert wird. Bei Röhren geht das nicht, weil die Leuchtschicht nur eine begrenzte Zeit leuchtet (daher das Flimmern, wenn die Refreshrate zu gering ist: der Bildpunkt wird wieder dunkel bis der Elektronenstrahl ihn das nächste Mal wieder zum Leuchten bringt).

Herdware schrieb:
Deshalb wäre es in dem Fall einfach praktischer, wenn die Bildfrequenzen der Grafikkarte und des Monitors synchronisiert sind und genau das macht G-Sync und schafft so Probleme wie Tearing und Mikroruckler durch stark schwankende Framelatenzen oder auch durch Gegenmaßnahmen wie VSync verursachte Verzögerungen aus der Welt.

So funktioniert GSync. Theoretisch kann man einen TFT (s.o.: Dauer der Ansteurung) auch mit 0Hz Refresh fahren, aber dann kann sich der Bildinhalt ja nicht ändern.;) Bei 1Hz Refresh kann man nur 1x den Bildinhalt pro Sekunde ändern, usw.

Herdware schrieb:
Das hätte man wie gesagt besser gleich bei der Einführung der TFTs und der entsprechenden digitalen Verbindungen (DVI und Co.) so regeln müssen. Nicht erst jetzt nachträglich und mit den Einschränkungen, dass man dafür einen bestimmten kompatiblen Monitor und bestimmte kompatible Grafikkarten braucht.

Da stimme ich voll und ganz zu. Auf Seiten der Grafikkarte ist das IMO nur eine Treibersache mit GSync (d.h. alle GPUs können das), auf Seiten des Monitors nicht, denn die sind bzw. waren nicht für variable Refreshraten ausgelegt.

Herdware schrieb:
Wer die Zeiten der Röhrenmonitore, besonders in den 80ern, noch miterlebt hat,

Ja, ich kann mich gut an diese Zeiten erinnern.
 
Zurück
Oben