Complication schrieb:Ist doch schon auf dem Weg - mit Ati wirst du schon in 3D zocken können bevor Nvidia erste echte Benchmarks raus bringt:
nv bietet jetzt schon zocken in 3d an, im gegensatz zu ati.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Complication schrieb:Ist doch schon auf dem Weg - mit Ati wirst du schon in 3D zocken können bevor Nvidia erste echte Benchmarks raus bringt:
Wow, endlich mal jemand der es versteht.AwesomeSauce schrieb:@DvP
Mehr als 60Fps bringen dir bei einem 60Hz-Monitor nur optisch nichts, was aber nichts daran ändert, dass die Inputdaten viel öfter abgefragt werden können und sich das Spiel deswegen genauer und flüssiger steuern lässt (ohne schwammigen Inputlag).
acc schrieb:nv bietet jetzt schon zocken in 3d an, im gegensatz zu ati.
Das Nvidia dies "ebenso" handhaben würde, macht die Aussage aber nicht richtiger. ~360€ bzw. ~260€ sind nicht nur meiner Meinung nach, sondern auch im Vergleich zu ehemaligen Top Single GPU Karten der letzten Jahre nicht unverschähmt teuer.Einhörnchen schrieb:Das habe ich doch bereits ebenfalls gesagt? https://www.computerbase.de/forum/t...technische-details.688240/page-3#post-7245489
Neo_Xsendra schrieb:@4ndreas
tja nv bietet das seit jahren ...
...
@milamber!
das mit asfark hatten wir durch er sprach von der geforce5
EDIT:
ach das 3d soll bei ati schon im nächsten treiber kommen? gibts schon genaue infos welche technik genau sie dafür verwenden wollen? bzw obs die übliche shutterbrille wird?
Das sind 3x 22" und das Spiel wird mit einer HD5770 gespielt.miagi schrieb:@Complication
jo aber die monitore sehen recht klein aus also keine hohe aufleosung... ausserdem kann man anhand des youtube-vids nicht wirklich klar erkennen wie fluessig das laeuft.
Das mit dem Treiber ist eine gute Nachricht! Dann war Ati der First Mover und Nvidia hat es besser Umgesetzt. Die Tessellation Units je nach Kartengröße mit zu skalieren ist genialAwesomeSauce schrieb:Dafür ist der Treiber zuständig, nicht das Spiel.
[...]
Die neuen TMUs sollen viel effizienter arbeiten, und afaik im 1:2 Verhältnis zum Shader-Core laufen...
Soweit ich weiß immer noch AFR, d.h. restlos werden sie nicht beseitigt sein. Möglicherweise hat der Release-Treiber von Nvidia noch ein paar Optimierungen diesbezüglich, aber da wäre ich pessimistisch.f1delity schrieb:Ist bei GF100 eigentlich schon mal irgendwas bezüglich Mikroruckler bekannt?
miagi schrieb:@wadenbeisser
ich rede vom 120Hz betrieb bei 2D darauf bin ich heiss.
kp was du mir sagen willst aber wenn zwischen zwei bildern aufm tft ein schwarzes bild eingefuegt wird sehen bewegte bilder schaerfer aus, sofern die Herz-Zahl hoch genug ist damit es nicht auffällt. habs mir selbst angeguckt ein Sony 200Hz geraet sehe ich ruckeln dagegen wirkte der selbe einspieler bei einem Sony 100Hz Pro LCD perfekt fluessig. So wird CRT sozusagen simuliert und es funktioniert gut! Sofern die Herz-Zahl bei einem CRT hoch genug ist gibts auch keine probleme. ich hatte damals einen Iiyama 19" den ich mit 120Hz benutzt habe und mich hat da nichts flimmerndes gestoert.
Einhörnchen schrieb:Da Nvidia jedoch das exakte Testsystem + Testeinstellungen genannt hat und zb die GTX 285 Werte mit nur 2 % Abweichung reproduziert werden konnten, würde mich das schon sehr wundern. Diese Hintertür hätten sie sich offen gelassen, wenn sie mit falschen Karten gespielt hätten.
AwesomeSauce schrieb:Tesla C2050 / C2070 verbrauchen bei 448CCs etwa 190W (Link). Ich rechne mit bis zu 220-250W für eine FullDesign-Fermi (512CCs)... Alles natürlich höchst spekulativ. Da muss man einfach abwarten!
AwesomeSauce schrieb:Tesla C2050 / C2070 verbrauchen bei 448CCs etwa 190W (Link). Ich rechne mit bis zu 220-250W für eine FullDesign-Fermi (512CCs)... Alles natürlich höchst spekulativ. Da muss man einfach abwarten!
@Complication
Laut Nvidia soll sich die Leistung der TMUs um etwa 40-65% steigern gegenüber dem GT200.
Das Gerücht halte ich mit den veröffentlichten Daten nicht mehr für tragfähig.Neo_Xsendra schrieb:ich seh grade, dass doch ne dual karte geplant sein soll, die 2 monate nach dem release der 360/380 kommen soll.
http://www.fudzilla.com/content/view/17197/1/
Complication schrieb:Die Tessellation Units je nach Kartengröße mit zu skalieren ist genial
Der R600 hatte 6 Monate Verspätung zur 8800 GTX und war langsamer und insgesamt eine Gurke. Trotzdem was es die Basis für RV670, RV770, RV870.hurga_gonzales schrieb:Ich halte AMDs Strategie, technische Fortschritte marktreif in kleineren Schritten anzubieten immer noch für die bessere. Entgegen NVidia, welche ewig lang gar nichts hören lassen, um dann ein Monstergerät á la GTX360/380 vom Stapel zu lassen, konnte doch AMD eine Menge Umsatz generieren, indem Karten mit sehr guter Leistung zum moderaten Preis und für jeden Geldbeutel auf dem Markt verfügbar gemacht werden.