Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erste Bilder von ATis R600 aufgetaucht
- Ersteller Christoph
- Erstellt am
- Zur News: Erste Bilder von ATis R600 aufgetaucht
BigChiller
Lieutenant
- Registriert
- Juni 2005
- Beiträge
- 642
Also es wird sowohl für alle interessant, wenn der R600 draußen ist, denn dann kommen auch normale Karten von NVidia und erst dann geht der ganze Tanz richtig los. Alles was davor liegt, wird eh nur von Hardwarejunkies gekauft, also bin ich echt gespannt auf den R600 und andere Modelle des G80.
Wolfenstein 2k2
Commander
- Registriert
- Okt. 2002
- Beiträge
- 2.902
ww2warlord schrieb:Der G80 ist zwar früher erschienen, aber nur Idioten kaufen sich für 700€ eine Karte.... Wenn der R600 erscheint werden die Preise drastisch gesenkt, um konkurenzfähig zu bleiben. Wer bis Dato weniger als 600€ für eine Grafikkarte ausgeben will sollte zu ATi greifen. Deren Kühler sind mittlerweile sehr gut und verbrauchen kaum mehr als die Pendanten, darüberhinaus ist die Bildqualität um längen besser... smarter choice =AMD +ATi
Also ich würde momentan eher zu einer GTS für 460€ tendieren als zu einer X1950XTX für durchschnittlich ca. 400€. Denn erstere kostet ja weniger als 600€, hat den leisen Kühler der GTX, ist schneller, hat die gleiche Bildqualität wie die GTX und somit auch eine bessere als die ATi. Insgesamt finde ich, dass die GTS und X1950XTX preislich noch ein wenig zu nah beieinander liegen. Wenn die ATi 325-350€ kosten würde, OK, aber momentan lege ich lieber etwas mehr drauf und bekomme dafür eine GTS, obwohl ich die letzen Jahre seit der 9800 Pro immer eine ATi hatte. Meine Meinung.
aXams
Lt. Junior Grade
- Registriert
- Apr. 2006
- Beiträge
- 438
Wolfenstein 2k2 schrieb:Also ich würde momentan eher zu einer GTS für 460€ tendieren als zu einer X1950XTX für durchschnittlich ca. 400€. Denn erstere kostet ja weniger als 600€, hat den leisen Kühler der GTX, ist schneller, hat die gleiche Bildqualität wie die GTX und somit auch eine bessere als die ATi. Insgesamt finde ich, dass die GTS und X1950XTX preislich noch ein wenig zu nah beieinander liegen. Wenn die ATi 325-350€ kosten würde, OK, aber momentan lege ich lieber etwas mehr drauf und bekomme dafür eine GTS, obwohl ich die letzen Jahre seit der 9800 Pro immer eine ATi hatte. Meine Meinung.
Du bist OT. Es geht um den R600.
Bundesgerd
Lieutenant
- Registriert
- Aug. 2005
- Beiträge
- 529
Es ist doch immer wieder lustig zu beobachten, wie die beiden Riesen im Grafikchipmarkt nahezu gleichziehen. Nvidia präsentiert den neuen hyperschnellen 8800er, wenig später (oder im Vorfeld aus der Gerüchteküche schon bekannt) stellt der Pendant ATI sein neustes Modell R600 vor (ja, natürlich mindestens doppelt so schnell :-)). Das selbe Spielchen existiert auch bei den CPU-Riesen Intel & AMD. Und das schon seit vielen Jahren. Offenbar gibt es eine Art Rohling die bei beiden bekannt ist und jeder "Riese" seinen Senf (äh Architektur) draufgibt. Anders ist diese gleichzeitige Veröffentlichung nicht zu erklären. Oder doch? Weiss jemand genaueres?
Bundesgerd schrieb:Es ist doch immer wieder lustig zu beobachten, wie die beiden Riesen im Grafikchipmarkt nahezu gleichziehen. Nvidia präsentiert den neuen hyperschnellen 8800er, wenig später (oder im Vorfeld aus der Gerüchteküche schon bekannt) stellt der Pendant ATI sein neustes Modell R600 vor (ja, natürlich mindestens doppelt so schnell :-)). Das selbe Spielchen existiert auch bei den CPU-Riesen Intel & AMD. Und das schon seit vielen Jahren. Offenbar gibt es eine Art Rohling die bei beiden bekannt ist und jeder "Riese" seinen Senf (äh Architektur) draufgibt. Anders ist diese gleichzeitige Veröffentlichung nicht zu erklären. Oder doch? Weiss jemand genaueres?
das ist im CPU-markt überhaupt nicht so.
iKantholz
Lieutenant
- Registriert
- Feb. 2005
- Beiträge
- 615
ja, der Rohling heißt Strukturgröße. mit kleineren Strukturbreiten hat man mehr transistoren zur verfügung, kann billiger produzieren und der chip hat im optimalfall sogar weniger stromverbrauch.
je nach architektur ist die generation dann etwas schneller oder langsamer als die konkurrenz.
war bei intel genauso, Netburst@65nm konnte mit AMDs K8@90nm ungefähr gleichziehen obwohl die Architektur dem K8 unterlegen ist. Mit Core haben owned intel aber erstmal wieder
je nach architektur ist die generation dann etwas schneller oder langsamer als die konkurrenz.
war bei intel genauso, Netburst@65nm konnte mit AMDs K8@90nm ungefähr gleichziehen obwohl die Architektur dem K8 unterlegen ist. Mit Core haben owned intel aber erstmal wieder
M
momo64x6
Gast
Dann taucht in 6 Monaten halt wieder ne Geforce 9000 auf die schneller ist als díe R600
ob ATI oder Nvidia den is nicht eure Meinung wichtig sondern das was ihr im Geldbeutel habt und sonst nix.
ob ATI oder Nvidia den is nicht eure Meinung wichtig sondern das was ihr im Geldbeutel habt und sonst nix.
Zuletzt bearbeitet von einem Moderator:
@40:
wie einige gleich wieder die angeblichen leistungsdaten aus der Schublade kramen nur weil ATI ein paar Bilder (mit unkänntlich gemachter Identifikationsnummer) zeigt. Das ist doch nur Taktik! Vielleicht ist der R600 schneller, das will cih gar nicht bezweifeln (bei den Eckdaten, zummindest vom Speicher her, denn über den Chip ist ja noch nicht so viel bekannt). Aber ich frag mich da wei man einen Chip vermarkten will
der 512bit/1024 Mybte Speicher hat und dessen Produktion ende Januar/anfang febraur mit sicher heit noch nicht auf hochturen läuft. Wo hingegen die Produktion des g80 danns schon gut läuft, man nicht 1024 MB teuren GDDR4 Speicher verbaut und man kein "special" Board
braucht um die 512bit zu verwirklichen. Mit der IQ die NV beim g80 bietet müssen sie doch lediglich eine etwas überarbeitet Version bringen
die unter umständen etwas langsamer ist aber weit unter dem Preis des R600 liegt.
UND (ich zitier mich selber ... allerdings mit neueren Daten als beim original Post):
ich meine .... klingt ja alles ganz nett und so ...............
ABER 512 bit speicherinterface hätte man auch schon vor 4 jahren mit ddr 1 speicher verwirklichen können. das ist wie
damals intel ddr2 speicher ins rennen geworfen hat weil der athlon64 ihenen den boden unter den füßen weggeschossen hat.
das gleiche macht amd jetzt mit dem am2 sockel ... auch nur weil sie nicht schnell genug sind.
ich finde die innovation von nv, ein extra speicher für die shaderunits einzuführen, viel innovatiever und hoffe das sich das
durchsetzt. und das nicht nur weil ich glaube dass es besser ist sondern weil ich es nich mag wenn man einfach nur alte sachen
verdoppelt und verdreifacht. das bringt auf kurze sicht was aber auf langesicht gesehen steht man so ehr schlecht da.
Edit: wer hat eigendlich gesagt dass 512 bit was bringen (will mal meine alte 5700 Ultra mit 512 bit sehen ^^)
außerdem haben shader die direkt an ihren eigenen speicher angebunden sind sicher auch vorteile ... wenn nicht mehr.
mal zu der Rohleistung (soweit ich weiß):
g80: 128 1D shader @ 1350 Mhz
r600: 64 4D shader @ 750 Mhz (?)
sagen wir mal das die 750 Mgz des r600 eins sind dann sind die 1350 Mhz der g80 ca. 1.8.
ALSO
g80: 128 x 1 x 1.8 = 230
r600: 64 x 4 x 1 = 256
und 64 pipes die 4 befehle pro takt bearbeiten können sind nicht immer perfekt ausgelastet wie 128 pipes und 1 befehl/takt.
und ich erinnere an die 256MB speicher mit 128bit nur für die shader ... die machen sicher auch noch was aus.
[MAN ICH HAB AUCH EINE X1800 UND BIN DER MEINUNG DASS DIE BESSER IST ALS DIE 7800/7900 REIHE, DOCH BEIM G80 HAT NVIDIA EINFACH DIE BESSEREN NEUERUNGEN GEBRACHT ... ES REICHT NICHT EINFACH NUR ALLES ZU ERHÖHEN, DENN DANN KANN MAN AUCH IMMER NUR AUF EINEN NEUEN VERTIGUNGSPROZESS WARTEN UND DANN DOPPElT SO VIELE PIPES EINBAUEN DOCH DARUM GEHT ES NICHT ... SRY MUSSTE ICH MAL SAGEN]
mfg s'NO
wie einige gleich wieder die angeblichen leistungsdaten aus der Schublade kramen nur weil ATI ein paar Bilder (mit unkänntlich gemachter Identifikationsnummer) zeigt. Das ist doch nur Taktik! Vielleicht ist der R600 schneller, das will cih gar nicht bezweifeln (bei den Eckdaten, zummindest vom Speicher her, denn über den Chip ist ja noch nicht so viel bekannt). Aber ich frag mich da wei man einen Chip vermarkten will
der 512bit/1024 Mybte Speicher hat und dessen Produktion ende Januar/anfang febraur mit sicher heit noch nicht auf hochturen läuft. Wo hingegen die Produktion des g80 danns schon gut läuft, man nicht 1024 MB teuren GDDR4 Speicher verbaut und man kein "special" Board
braucht um die 512bit zu verwirklichen. Mit der IQ die NV beim g80 bietet müssen sie doch lediglich eine etwas überarbeitet Version bringen
die unter umständen etwas langsamer ist aber weit unter dem Preis des R600 liegt.
UND (ich zitier mich selber ... allerdings mit neueren Daten als beim original Post):
ich meine .... klingt ja alles ganz nett und so ...............
ABER 512 bit speicherinterface hätte man auch schon vor 4 jahren mit ddr 1 speicher verwirklichen können. das ist wie
damals intel ddr2 speicher ins rennen geworfen hat weil der athlon64 ihenen den boden unter den füßen weggeschossen hat.
das gleiche macht amd jetzt mit dem am2 sockel ... auch nur weil sie nicht schnell genug sind.
ich finde die innovation von nv, ein extra speicher für die shaderunits einzuführen, viel innovatiever und hoffe das sich das
durchsetzt. und das nicht nur weil ich glaube dass es besser ist sondern weil ich es nich mag wenn man einfach nur alte sachen
verdoppelt und verdreifacht. das bringt auf kurze sicht was aber auf langesicht gesehen steht man so ehr schlecht da.
Edit: wer hat eigendlich gesagt dass 512 bit was bringen (will mal meine alte 5700 Ultra mit 512 bit sehen ^^)
außerdem haben shader die direkt an ihren eigenen speicher angebunden sind sicher auch vorteile ... wenn nicht mehr.
mal zu der Rohleistung (soweit ich weiß):
g80: 128 1D shader @ 1350 Mhz
r600: 64 4D shader @ 750 Mhz (?)
sagen wir mal das die 750 Mgz des r600 eins sind dann sind die 1350 Mhz der g80 ca. 1.8.
ALSO
g80: 128 x 1 x 1.8 = 230
r600: 64 x 4 x 1 = 256
und 64 pipes die 4 befehle pro takt bearbeiten können sind nicht immer perfekt ausgelastet wie 128 pipes und 1 befehl/takt.
und ich erinnere an die 256MB speicher mit 128bit nur für die shader ... die machen sicher auch noch was aus.
[MAN ICH HAB AUCH EINE X1800 UND BIN DER MEINUNG DASS DIE BESSER IST ALS DIE 7800/7900 REIHE, DOCH BEIM G80 HAT NVIDIA EINFACH DIE BESSEREN NEUERUNGEN GEBRACHT ... ES REICHT NICHT EINFACH NUR ALLES ZU ERHÖHEN, DENN DANN KANN MAN AUCH IMMER NUR AUF EINEN NEUEN VERTIGUNGSPROZESS WARTEN UND DANN DOPPElT SO VIELE PIPES EINBAUEN DOCH DARUM GEHT ES NICHT ... SRY MUSSTE ICH MAL SAGEN]
mfg s'NO
Zuletzt bearbeitet:
w0mbat
Lt. Commander
- Registriert
- Juni 2006
- Beiträge
- 1.282
Silverhawk schrieb:war bei intel genauso, Netburst@65nm konnte mit AMDs K8@90nm ungefähr gleichziehen obwohl die Architektur dem K8 unterlegen ist. Mit Core haben owned intel aber erstmal wieder
Hä? Selbst in 65nm war der Pentium 4/D dem Athlon 64/X2 haushoch unterlegen. Ein X2 3800+ schlug den schnellsten Pentium D.
s`NO schrieb:das gleiche macht amd jetzt mit dem am2 sockel ... auch nur weil sie nicht schnell genug sind.
Schwachsinn. AMD ist auf DDR2 umgestiegen, da DDR Marktanteile verliert und einfach nicht mehr aktuelle wird. Schneller ist der Athlon 64 durch DDR2 ja nicht geworden.
G.reloaded
Lt. Commander
- Registriert
- Nov. 2005
- Beiträge
- 1.751
ATi's Shaderarchitektur soll aber wesentlich komplexer arbeiten, man spricht da bei optimaler Ausnutzung von 4x Performance im Vergleich zu nvidias simplerer Architektur (4x64=256). Das wird ein schönes Duell der Marketingexperten!!
pascaljackson
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 533
es bleiben halt alles nur gerüchte
und am ende wird es eh so sein wie immer
die topmodelle werden nur einen extrem kleinen unterschied haben
ich denke
das meiste geld werden die hersteller im midrange bereich bekommen
man will ne dx10 karte
aber auch ausreichend power zum zocken
also hohlt man sich ne 200€ karte
und am ende wird es eh so sein wie immer
die topmodelle werden nur einen extrem kleinen unterschied haben
ich denke
das meiste geld werden die hersteller im midrange bereich bekommen
man will ne dx10 karte
aber auch ausreichend power zum zocken
also hohlt man sich ne 200€ karte
_DJ2P-GER_
Rear Admiral
- Registriert
- Apr. 2006
- Beiträge
- 5.616
Naja, der Chip ist erstmal wenig spektakulär. Man will wohl vielmehr darauf aufmerksam machen, dass es den R600 noch gibt und er in den Startlöchern steht.
Wenn sich die alle Gerüchte bestätigen wird es eine nette Karte: 1GB GDDR4 2GHz mit einem 512Bit Interface und ein 12 Layer PCB. Auf die ersten Bilder einer kompletten Karte mit Kühler bin ich aber mehr gespannt und natürlich auf den Preis.
Quellen sind aber vielmehr pcdvd.com/hardspell.com und nicht irgendwas französiches...
Angeblich kommt der R600 mit DX10.1.
Wenn sich die alle Gerüchte bestätigen wird es eine nette Karte: 1GB GDDR4 2GHz mit einem 512Bit Interface und ein 12 Layer PCB. Auf die ersten Bilder einer kompletten Karte mit Kühler bin ich aber mehr gespannt und natürlich auf den Preis.
Quellen sind aber vielmehr pcdvd.com/hardspell.com und nicht irgendwas französiches...
Angeblich kommt der R600 mit DX10.1.
Man-in-Black
Banned
- Registriert
- Nov. 2006
- Beiträge
- 16
DX10.1 ist ein bischen weit hergeholt
aber wie du sachtest das bild von der karte mit Kühler währe geil
... jetzt noch mal zum speicher kann ich wetten das ATI GDDR4 nimmt und den auch bestimmt mit 2,2GHz/2,4GHz taktet da man den takt brauch um die Shader-Prozessoren auszulasten
(Stannt mal in ner Hardwareluxx drin das die karte mehr als 2GHz haben soll)
aber wie du sachtest das bild von der karte mit Kühler währe geil
... jetzt noch mal zum speicher kann ich wetten das ATI GDDR4 nimmt und den auch bestimmt mit 2,2GHz/2,4GHz taktet da man den takt brauch um die Shader-Prozessoren auszulasten
(Stannt mal in ner Hardwareluxx drin das die karte mehr als 2GHz haben soll)
schoolisoutfan
Lt. Commander
- Registriert
- Nov. 2004
- Beiträge
- 1.099
Man-in-Black schrieb:DX10.1 ist ein bischen weit hergeholt
Eigentlich nicht, denn laut Pressemitteilungen wird bereits an DX10.1 gewerkelt...
Man-in-Black
Banned
- Registriert
- Nov. 2006
- Beiträge
- 16
@55 Also meinst du das die karte dann Pixelshader 4.1/4.0B hat
und ich wollte mal sagen das selbst wenn ATI´s R600 "nur" 64 US hat kann ich sagen das wie in der HardwareLuxx stannt das die Frameraten ~25% besser sind als bei der standart Architektur ... das haben die mit der Xbox360 getestet und die hat ja 48 US .
und ich wollte mal sagen das selbst wenn ATI´s R600 "nur" 64 US hat kann ich sagen das wie in der HardwareLuxx stannt das die Frameraten ~25% besser sind als bei der standart Architektur ... das haben die mit der Xbox360 getestet und die hat ja 48 US .
Zuletzt bearbeitet:
G.reloaded
Lt. Commander
- Registriert
- Nov. 2005
- Beiträge
- 1.751
Laut dem Inquirer
ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.
Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units. We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena. In a way, you could compare R600 and G80 as Athlon XP versus Pentium 4 - one was doing more work in a single clock, while the other was using higher clock speed to achieve equal performance.
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
@ 58 das hört sich auch logisch an mit dem Vergleich zum XP und P4.
In der ersten Zeit war der Xp ja auch energiehungriger als der P4 - dies änderte sich nach der nächsten Generation - die Leistung auch!
In der ersten Zeit war der Xp ja auch energiehungriger als der P4 - dies änderte sich nach der nächsten Generation - die Leistung auch!
G.reloaded
Lt. Commander
- Registriert
- Nov. 2005
- Beiträge
- 1.751
ww2warlord schrieb:@ 58 das hört sich auch logisch an mit dem Vergleich zum XP und P4.
In der ersten Zeit war der Xp ja auch energiehungriger als der P4 - dies änderte sich nach der nächsten Generation - die Leistung auch!
Naja, mit dem Unterschied dass der G80 ja schon von Anfang an performant ist. Das war bei P4 nicht so, der Willamette konnte anfangs nichtmal den P3 in die Schranken verweisen.
Ähnliche Themen
- Antworten
- 70
- Aufrufe
- 12.304
- Antworten
- 128
- Aufrufe
- 20.939
- Antworten
- 39
- Aufrufe
- 7.103
- Antworten
- 32
- Aufrufe
- 6.714
- Antworten
- 50
- Aufrufe
- 13.259