News ATis RV670 kommt am 15. November

Zu deinem ersten Absatz: Warum? Und so ein Verhalten ist doch bestimmt nicht repräsentativ... denn ist nicht was Profispieler runterstellen die Grafikqualität im Bereich Texturen, Models, Shader usw., wobei die Auflösungen hochgestellt werden? (sodass alles noch super flüssig läuft, versteht sich)

@ Blutschlumpf:

Wer, der eine HD2900 hat, gibt sich noch mit einem 17" CRT oder 15" TFT zufrieden? Das macht doch vom Kostenverhältnis her gar keinen Sinn.
 
Speicheranbindung & Takt:
Gebe zu, daß ich nicht 100% weiß, wie PCIe2.0 funktioniert: Aber soll sich die Datenrate über den Bus dadurch nicht verdoppeln...?
Ok - gibt zwar bisher noch nur wenige Boards, die das unterstützen. Und teuer sind die noch dazu.
Aber an der Gesamtleistung des Systems sollte das doch eigentlich auch nochmal einiges bringen.
Wäre damit nicht denkbar, daß eine 2950er auf einem PCIe2.0er-Board bei einer gleichwertigen CPU damit nicht an den 8800ern von NVidia vorbeizieht - wenn auch vielleicht nur knapp?

In Sachen Auflösung:
Auch mein (nagelneuer) 19" TFT von Samsung gibt max. eine 1280er Auflösung her. Nur wenn ich mir ansehe, wie die Benchs auf computerbase mit eingeschaltetem AA und AF teilweise - je nach Spiel - schon bei der 1280er, aber erst recht bei der 1600er einbrechen, dann stelle ich mir echt die Frage, wieso ich etwas höheres als 1024 fahren soll (?). Eine 1024er Auflösung mit AA und AF sieht in meinen Augen tausendmal schicker aus als 1280 reduziert oder 1600 gar ganz ohne...
Schließe mich damit der Meinung eines Vorredners an, auch wenn ich den nick nicht mehr weiß ;)

Unter'm Strich hört sich die 2950 für mich echt nach ner Option an, zumal ich mir wahrscheinlich in den nächsten Monaten einen PC mit PCIe2.0 und evtl. DDR3 zusammenstellen will - vorausgesetzt, Angebot und Preise entwickeln sich noch ein wenig nach unten.
Ich glaube, damit dürfte man dann fast jeden Nicht-OC-8800er ein bissel abhängen. Hoffe ich...
 
Zuletzt bearbeitet:
darko2 schrieb:
Wer, der eine HD2900 hat, gibt sich noch mit einem 17" CRT oder 15" TFT zufrieden? Das macht doch vom Kostenverhältnis her gar keinen Sinn.
Vermutlich keiner, aber die meisten werden mit nem 19 Zoll TFT auskommen und damit auf 1280x1024 limitiert sein.
 
ATI betreibt damit mE nach nur Schadensbegrenzung. Die Performance-Krone konnte man mit der2900XT nicht holen, da wohl ein herber Hardwaredesignfehler und der hohe Stromverbrauch = niedrigere Frequenzen als gewollt alles zunichte gemacht haben. Die GPUs brechen bei FSAA (AntiAliasing) so herbe ein, dass man das nur durch eine provisorische Behebung des Hardwarefehlers über den Treiber deuten kann. Irgendwas ging da designmäßig schief, was man am Ende einfach nur noch abschalten/unbenutzt lassen konnte, um den Fehler dann durch andere Teile der GPU berechnen zu lassen. Die Folgen davon zeigen jeder benchmark mit und ohne FSAA.

Ich hatte die Reduzierung der Transistoren als eine von zwei Möglichkeiten vorausgesagt. Offensichtlich hat ATI/AMD das Problem überhaupt nicht in den Griff bekommen und lässt die nicht funktionsfähigen Teile der GPU im Redisgn kurzerhand weg. Ich erwarte deshalb, dass sich vermutlich auch an der Performance grundsätzlich nichts ändern wird, sondern diese im großen und ganzen proportional bzgl Taktfrequenz ändert. Das kleinere Speicherinterface spart eine Menge Geld, kostet jedoch nur in hohen Auflösungen viel Performance. Dafür jedoch ist die Karte sowieso nicht ausgelegt, denn sie befindet sich ohnehin nur im Midrange-Bereich. Gegen die GTX soll die 2000er-Serie ja seit iherem Erscheinen nicht antreten.

Schade, denn ich hatte gehofft, ATI/AMD behebt den Designfehler und wir hätten gehörige Leistungszuwächse unter FSAA zu erwarten gehabt. Die Verringerung der Strukturbreite ist ein wichtiger Punkt in Anbetracht des hohen Stromverbrauches und einer von zwei wichtigen Zielen gewesen. Leider aber verfestigt ATI/AMD auf kurzfristige Zeit nur sein Engagement im Midrangebereich :-(

Da gibts ansich nur eine Möglichkeit, im Highendbereich mit der vorhandenen Hardware wieder Fuß zu fassen: unter Verzicht auf Gewinnmargen eine teuer zu produzierende Dual-GPU-Karte für wenig Geld (mit wenig Gewinn) ins Volk zu werfen. Die Speicherpreise würden insofern wenigstens derzeit mitmachen. Wenn die 2000er Serie wirklich so gut skaliert und annähernd 90% Mehrleistung aus einer zweiten GPU zieht zeigen alle Signale in diese Richtung. Die Dual-2600XT-Karte hat den Anfang ja schon gemacht und erzielt ganz beeindruckende Ergebnisse für ein lausiges 128bit Interface.

ATI/AMD: tut was, ich will endlich wieder eine ATI-Karte haben ! Wenn sich bis Weihnachten nicht zumindest eine kurzfristige Ankündigung auftut kaufe ich die nächste nVidia-Karte und das wars wieder für 1-1.5 Jahre. Das habt ihr dann davon ;-)
 
Blutschlumpf schrieb:
Vermutlich keiner, aber die meisten werden mit nem 19 Zoll TFT auskommen und damit auf 1280x1024 limitiert sein.

Du darfst dir ruhig meine Posts auch durchlesen... ich habe ein, zwei Posts vorher geschrieben, dass meiner (und nicht nur der) auch 1440 x 900 kann. Und es gibt glaub ich sogar 19"er, die 1680 x 1050 können. So viel dazu.
 
Hallo Zusammen es geht hier ja auch ums Geld,
es ist kurz vor Weihnachten, und eine gute bis sehr gute für 200-250€ geht doch besser von der Einkaufs theke als eine Grakka die zwar mehr leistung haben könnte aber dann 350-500€ kosten würde,
und mit diesen karten lassen sich auch alle Spiele gut Spielen, klar gibt es hier leute die das Spiel so schön und gut wie möglichen Spielen(besteQualität haben möchten) , aber in der breite reischt das den meisten.

MFG
Faihtless
 
Ich find die Karte insofern interessant wegen der Spider Plattform,
mit dem Ding passen 4 Stück drauf zu 100% selbst auf schlecht designte Gigabyte Board MSI passen 4 Dual GPUs drauf.

Fette X2 Dualslot davon mal vier auf ein Spider und man hätte 8 GPUs zum crunchen :freak:

Wo sind meine Pillen :freak::freaky: :evillol:

-----------------------------------------------------------------
Sonst Faithless hats ziemlich gut getroffen.
Für die meisten Spieler ist selbst eine 250Euro Grafikarte ein haufen Geld. Auch wenns wenige zugeben würden.
 
weiß eigentlich jemand was da noch für den guten alten AGP Port kommt ???
mfg
 
darko2 schrieb:
Du darfst dir ruhig meine Posts auch durchlesen... ich habe ein, zwei Posts vorher geschrieben, dass meiner (und nicht nur der) auch 1440 x 900 kann.

Bei 1440 x 900 sind es auch nicht mehr Pixel als bei 1280 x 1024, genaugenommen sogar ein paar (14720) weniger, da sollte leistungstechnisch zwischen 1280 x 1024 und 1440 x 900 fast kein Unterschied herrschen. :rolleyes:

@ mcbloch

AGP Port wäre Accelerated Graphics Port Port :p Irgendwie doppelt gemoppelt.
 
Zuletzt bearbeitet:
1'296'000 Pixel bei 1440x900
1'310'720 Pixel bei 1280x1024

Unterschied von 14720 Pixel
 
Die wird ja um einiges billiger als ich gedacht habe was für Glück kann man mal wieder sparen.
Und das Speicherinterface mit 256 bit reicht doch für den guten Preis.

mfg
 
die karte wird nicht das high end produkt von amd sondern das und wenn die karte 249$ kostet dann wird die bei uns so um die 229€ kosten und das ist recht günstig für die karte:

Gerücht: Radeon HD 2950X2X
R670 oder R680: Zwei RV670 Chips auf einer Karte

AMDs Radeon HD 2950 (RV670) ist noch nichtmals auf dem Markt, da häufen sich bereits Gerüchte zu neuen Radeon Grafikkarten. So berichten einige Quellen von einer Radeon HD 2950X2X - eine Dual-Chip Grafikkarte basierend auf zwei RV670 Chips. Wenn es nach Fudzilla geht, so soll die Lösung R670 heißen, wenn man VR-Zone Glauben schenken will, jedoch R680. Letztere Lösung könnte zwei RV670 Chips auf nur einem DIE bedeuten statt zwei GPUs auf einer Karte.
Anzeige

Ebenfalls nicht einig sind sich die Gerüchteküchen beim verwendeten Speicher. So wird sowohl von 1 GByte GDDR4-RAM als auch von 1 GByte GDDR3-RAM gesprochen. Die GPU selbst soll offensichtlich mit 800 MHz betrieben werden. Erscheinen wird die neue Radeon frühestens Ende dieses Jahres, wahrscheinlicher ist aber ein Termin im 1. Quartal des kommenden Jahres 2008. Angeblich ist sie 1,5 mal so schnell wie ein Radeon HD 2900 XT CrossFire-Gespann und soll im 3DMark06 mit entsprechendem Prozessor 20.000 Punkte erzielen können. Schließlich wird die DirectX 10.1 Radeon HD 2950X2X auch CrossFire können, so dass bei entsprechendem Treiber-Support ein Gespann mit dann insgesamt vier Grafikchips denkbar wäre.
Was sich hinter den Kürzeln R670 und R680 verbirgt, ist zum jetzigen Zeitpunkt noch unklar. Fest steht jedoch seit dem neuesten Catalyst-Treiber, dass AMD offensichtlich vier Versionen des RV670 und einen R680 plant. Entsprechend wäre eine Dual-Chip-Karte wie die beschriebene Radeon HD 2950X2X durchaus denkbar.
 
250 USD? lol das sind ja nichtmal 180€ ma gucken wenn die unter 200€ hier in deutschland verfügbar ist holl ich sie mir.:lol:
 
ich werde /muss bis mitte dezember warten da der cpu den ich haben will erst dezember raus kommt (amd quad mir 2,6GHz) also werde ich benchs abwarten hoffe aber das ati endlich wieder spitzenreiter oder wenigstens sehr nahe drann sein wird^^
 
@Blacktail: So einfach gehts leider nicht. Man kann schon akteuell die Preise von $=€ nehmen, da noch MwSt drauf kommt uns hsipping etc... also 250€ werdens dann.
 
Beim aktuellen Dollarkurs wirst du trotzdem merklich unter den Dollar-netto-Preis kommen.
100 Dollar netto ~ 70,5 Euro netto, also groß 84 Euro brutto.
 
Tolle News, werd mir auf jeden Fall eine 2950XT zulegen, aber wohl erst, wenn die neuen Intel Cpu´s draussen sind.

Naja am 15 November wissen wir mehr.
 
Mal ne Frage:
Bekomme ich die Karte - obwohl PCIe2.0 - auch in einen aktuellen PCIe1.0 bzw. 1.1-Slot (in meinem Fall P5LD2-SE bzw. P5K)? Also ich meine, ohne bauwerkliche Änderungen vorzunehmen ;)
Oder wird die nur mit den neuen Chipsätzen / Boards laufen (X38 und folgende)?
 
Zurück
Oben