News Reagiert ATi auf die GeForce 7800 GTX 512?

Naja, ich sehe es auch eher als Unentschieden an...
Beide Karten sind verdammt schnell und saugut, da ist es doch egal, welche ich im Rechner habe, auf beiden läuft alles und das wie die Hölle!
Warum denn dann streiten?
Ich finde wir sind an dem Punkt angelangt, wo der NV Fan sich die NV Karte kauft und der ATI Fan sich die ATI Karte kauft und beide haben ein sehr gutes Produkt...
Der "nicht fan" kauft eben dann die Karte, die zum Kaufzeitpunkt günstiger und verfügbar ist...
 
AlphaGoku schrieb:
bist du etwas doof?

Was hat die Verfügbarkeit mit dem OC-Potenzial zu tun

Wieso sollte ich selber drüber lachen?
Klar lässt sich die gtx 512 noch etwas übertakten. Aber 50Mhz (laut einigen Reviews) kann man als mäßig ansehen.

Du anscheinend.

<der r520 kann locker 750 und mehr core erreichen... am limit tztztztzt... die gtx512 ist am limit, ist somit aber auch die schnellste graka<

Die R520 pfeifft schon jetzt aus dem letzten Loch und du laberst die können noch mehr erreichen. Der G70 lässt sich ohne VMOD ala AtiTool schon auf über 600 Mhz takten! Mit VMod ist da sicher noch mehr drin und ist damit wesentlich effizienter als jede X1800XT die bräuchte dann schon 800Mhz um da einigermasen mithalten zu können!
 
MCC schrieb:
Du anscheinend.

<der r520 kann locker 750 und mehr core erreichen... am limit tztztztzt... die gtx512 ist am limit, ist somit aber auch die schnellste graka<

Die R520 pfeifft schon jetzt aus dem letzten Loch und du laberst die können noch mehr erreichen. Der G70 lässt sich ohne VMOD ala AtiTool schon auf über 600 Mhz takten! Mit VMod ist da sicher noch mehr drin und ist damit wesentlich effizienter als jede X1800XT die bräuchte dann schon 800Mhz um da einigermasen mithalten zu können!

Hast wohl vergessen, dass eine GTX 8 Pixelpipes mehr hat. Die effizientere Karte ist die ATI, da die Nvidia theoretisch viel schneller sein müsste, da sie mehr Rechenleistung hat. Bei Spielen geht aber einiges davon unter. Da man bei den X1800 Karten mittels tool die Spannung der GPU und Speicher erhöhen kann gehen die Karten doch recht weit zu ocen. Mit Luftkühlung wurden schon 850MHz erreicht.
 
Um 850 MHz zu erreichen muß man die Karte aber kaufen können !!!! Und das kann man nicht !

Habe gestern bei Geizhals nochmal alle Händler angefragt - nicht vor 30.11 !

Also woher soll man wissen was in der Fläche geht bei der Karte ? Bin übrigens selber ATI Fan und ärgere mich sehr darüber das ich eine 7800 GTX kaufen mußte weil ati nix hat.

Was will man machen, kommen vielleicht wieder bessere Zeiten.

Grüße
Sascha
 
OT: Erstaunlich, was hier einige schreiben. Voltage-Mods und Extrem-OC erscheinen mir bei der Leistung von aktuellen High-End Karten leicht überzogen. Was fangt ihr mit der Performance eurer übertakteten Grafikkarten eigentlich an?

Welche Games (mit welchen Einstellungen und Auflösungen) spielt man auf so einer Monster? Oder wird darauf nur gebencht?
 
Naja, bei FEAR auf 1280x1024 mit max. Details + 4xAA + 16xAF stößt selbst ne GTX an Ihre Grenzen (ich mein die minimalen FPS).
 
Stimme zu !

F.E.A.R. hat mich zur 7800GTX getrieben. Meine "alte!!" X850XT und der beschissene OpenGL Treiber von ATI haben ein flüssiges Spielen in 1280x1024 auf meinem 19Zoll TFT nicht zugelassen.

Und da ich wenn möglich gern in der nativen TFT Auflösung spielen will, mußte ich diese Karte kaufen. F.E.A.R. läßt sich jetzt einigermaßen spielen in 1280x1024 alles max, AA 2x, AF 4x, TAA, Gamma Korrigiertes AF Supersampling. Vorher ging das nicht.

Auch das Need for Speed Demo Most Wanted läßt den Schluß zu : in 1280x1024 alles max zwischen 30-60 Frames auf meinem System : Nur high End Hardware ermöglicht den vollen Spaß.

Aber das war doch schon immer so, ohne Spiele bräuchte man die Hardware nicht. Das treibt die Entwicklung voran.
Als ich Farcry zum Ersten Mal zocken wollte hatte ich eine Geforce 4600 mit P4 2,53GHz. Das war sehr bescheiden. Jetzt ! kann man das Spiel genießen und zocken. 8xAA / 16X AF, 50-80 Frames. Top.

Grüße
Sascha
 
HugeXL schrieb:
...
Ich finde wir sind an dem Punkt angelangt, wo der NV Fan sich die NV Karte kauft und der ATI Fan sich die ATI Karte kauft und beide haben ein sehr gutes Produkt...
Nein, der ehemalige Nvidia-Fan kauft jetzt ATI X1800, weil er mehr als nur 2x AF in allen Winkeln haben will. Nvidia-Fans waren früher Leute die maximale Texturqualität wollten, weil Nvidia seit dem Riva TNT immer die beste Texturqualität am Markt bot. Heute bietet Nvidia eine im Vergleich mit der Konkurrenz deutlich schlechtere Texturqualität, daraus folgt, die alten NV-Fans kaufen ATI und die alten 3Dfx-Fans, die schon immer weniger Bildqualität für mehr Performance wollten, kaufen Nvidia. ;)

siehe:
http://img67.imageshack.us/img67/9549/hardocp2gh.jpg
und:
MountWalker Beitrag 65 hier im Thread schrieb:
Das kann es nicht, in dem flachen Winkel des unteren Mauersegments ist tiefere Schärfe als auf dem unteren Bild schlichtweg unmöglich auf NV4x und G70, weil in diesem Winkel durch die Hardware bedingt nicht mehr als 2x AF möglich ist, auf R3xx und R4xx würde es ähnlich aussehen. Der R520 und derzeit nur der R520 bietet in "High Quality" dahingegen wieder die Option auf weitgehende Winkelunabhängigkeit beim Anisotropen Filter, weswegen auch in diesem Winkel 16x AF gerendert werden kann.

Wenn du wissen willst, wie sich die Winkelabhängigkeit auswirkt, klicke auf die kreisförmigen Tunnel in meiner Signatur.
 
Zuletzt bearbeitet:
Wenn du das so siehst...
Als ich HL2 gezockt habe war ich mit ballern beschäftigt und habe nicht mit ner Lupe und nem Gehirnschaden nach leichten Unschärfen in den Winkeln von was auch immer gesucht, aber egal...
Sowas kommt immer wieder auf, eben als Argument Pro/Contra aber das trifft in der Realität nicht zu, da man die Unterschiede so gut wie nicht im laufenden Gefecht feststellen kann, traurig aber wahr...
Wenn jetzt wer kommt und sagt er würde es sehen: Schön für ihn, ich sehe es nicht und spare mir dadurch viel Geld...
Was ich sehe ist AA, und zwar ordentlich.
Und da hat Ati nen Vorteil, da ihre Karten bei AA nicht so stark einbrechen.
Das mag heute belanglos sein, da beide immer noch genügend Power haben aber spätestens in nem Jahr wird das ein gewichtiges Plus für Ati sein...

so long
 
MountWalker schrieb:
. Heute bietet Nvidia eine im Vergleich mit der Konkurrenz deutlich schlechtere Texturqualität,

Immer diese Uebertreibungen:rolleyes: Per default nehmen sich NVidia und ATI quasi ueberhaupt nichts in der Qualitaet, eher ist da sogar Nvidia leicht besser.
 
kisser schrieb:
Immer diese Uebertreibungen:rolleyes: Per default nehmen sich NVidia und ATI quasi ueberhaupt nichts in der Qualitaet, eher ist da sogar Nvidia leicht besser.
In High-Quality ist ATI deutlich überlegen, siehe Beispiel-Screenshot. Daran ist nichts übertrieben.

HugeXL schrieb:
..
Sowas kommt immer wieder auf, eben als Argument Pro/Contra aber das trifft in der Realität nicht zu, da man die Unterschiede so gut wie nicht im laufenden Gefecht feststellen kann, traurig aber wahr...
Wenn du das nicht siehst, spiele eben durchgängig mit 2x AF, dagegen ist ja nichts einzuuwenden, aber 16x AF zu vergleichen, das kein 16x AF ist ist nunmal unakzeptabel, weshalb solche Benchmarks unsinnig sind. Das war früher mal ein Argument für Nvidia, heute ist es ein Argument für ATI.

Und ich habe bereits gesagt, dass das für die alten NV-Fans interessant ist, die sich einst an die Marke Nvidia wegen der am Markt besten Texturqualität banden, während die heutigen Nvidia-Karten für die ehemaligen 3Dfx-Fans interessant sind, die schon immer weniger Qualität für mehr Leistung wollten - was also ist daran jetzt verkehrt? Ist es wirklich so nötig Gleichmacherei zu betreiben und die Unterschiede wegzudiskutieren, so tun als ob sie nicht da wären? Ist das etwa besser als das Beleuchten der Vor- und Nachteile? Tolle Diskussion... :rolleyes:
 
Ich gebe dir ja recht, das die Quali bei Ati besser ist, keine Frage, habe ich ja erwähnt...
Aber trotzdem: Die Quali ist jetzt so gut, wie sie es noch nie war, da mann jetzt endlich auch mit 4-8x fsaa und 16x aa ordentlich zocken kann...
Zu nem anderen Vorteil: Das Transparent-AA von Nvidia, hat das Ati auch?
 
Zurück
Oben