HD 2900 XT- Wer besitzt bereits schon eine und berichtet mal?

Zur Zeit ist eine 8800 GTS (640 MB) einfach besser: Mehr Leistung mit AA & AF, sowie mehr Leistung unter DX10. (Variance Shadow Maps, Lost Planet, Call of Juarez)

Wenn die HD 2900 XT ihre Leistung durch neue Treiber verbessert, kann es wieder anders aussehen.
 
Ich würde eher noch ein wenig drauflegen und in ein NT mit noch mehr Ampere auf der 12V Schiene investieren.

Prinzipiell würde es aber ausreichen.
 
Will dieses NT nicht kaufen, da ic h es schon seit September habe, zusammen mit meiner MSI 1950 PRO.
Nun für meine zukünftige HD 2900 XT wollte ich fragen ob es dennoch ausreichen würde, oder es generell dafür zu schwach ist !
Vielen Dank schon mal.
 
Das Netzteil hat doch nur einen 6-poligigen Anschluss. Du brauchst zwei. Die Combined Power 145 Watt ist auch zu gering und die Ampere-Angaben auf der 12-Voltschine dürftig.

Ich würd eher sagen. Mindestanforderungen:
http://www.alternate.de/html/product/details.html?articleId=70924&showTechData=true#tecData
(wobei ich auch hier nicht beim Worte genommen werden möchte, wenn das dann doch nicht ausreichen würde)

Am besten doch eher so was:
http://www.alternate.de/html/product/details.html?articleId=157089&showTechData=true#tecData

Effizienz: 85 %
Grafikkartenanschlüsse: 2 x 6-polig
Stromstärken: +12V Gesamt 48 A
 
Zuletzt bearbeitet:
Moin

STFU-Sucker ich hab zwei auf ein sli board laufen es geht man muss nur wissen wie
 
@DocPsycho

Und wie hast du es hinbekommen? Ich habe die SLI Boards bisher gemieden, da man da kein CF drauf laufen lassen konnte. Modifizierte Treiber habe ich nicht gefunden, im Gegensatz zu modifizierten Treiben um SLI auf CF Boards zu ermöglichen.

Wäre nett, wenn du mal schreiben könntest, wie du es hinbekommst. ;)
 
Zuletzt bearbeitet:
Die aussagen von UltraXFX-92 das die GF unter DX10 schneller ist ,ist ja von Propheten hafter weise:kotz: ! nur da es ein paar "demos" zeigen .die unterumständen noch nicht mal unter Vista laufen,die GF ist ja das besste und das dieser Kopf wo gedreht wird "die DX10 Technik"ist aber unter XP ist.Und zum vermerk,abwarten und Tee trinken,was die Praxis zeigt wenn mal spiele draussen sind;)wenn aber einer ne GF haben will soll er die doch kaufen und zufrieden sein und nicht irgentwas posten was sie nicht wissen:)

hier ein ausschnitt:

Textureinheiten:
nVidia geht bei den Textureinheiten einen sehr interessanten Weg. So verbaut man auf dem G80 doppelt so viele Texture Mapping Units (TMUs), die die Texturen filtern können, als Texture Addressing Units (TAU), die für Aufgaben wie „Texture Lookups“ und allgemein für die Texturadressierung zuständig sind. Dies hat den praktischen Vorteil, dass entweder ein trilinear oder ein 2-fach bilinear anisotrop gefilterter Texel innerhalb eines Taktes fertiggestellt werden kann. ATi geht bei dem R600 genau den gegenteiligen Weg. So existieren auf dem R600 16 (aufgebohrte) TMUs, aber 32 TAU. Diese sind in vier Blöcken organisiert mit je vier TMUs sowie acht TAU. Die acht TAU besitzen jedoch unterschiedliche Fähigkeiten. Vier davon sind für Vertex- und Texture-Fetching zuständig während die vier anderen TAU die Texturadressierung erledigen.


Blockdiagramm der Textureinheiten im Detail

Wie Eric Demers uns in einem Gespräch ehrlich verriet, kann es gut sein, dass das gegensätzliche Verhältnis zu nVidia in Direct3D-9-Spielen ein Nachteil ist. In Direct3D-10-Anwendungen rechnet ATi aber mit einem Vorteil. Die TMUs können innerhalb eines Taktes einen 64-Bit-Wert filtern, weswegen die Textureinheiten FP16-HDR-Rendering ohne Geschwindigkeitsverlust gegenüber der herkömmlichen Genauigkeit berechnen können. FP32-HDRR benötigt dagegen zwei Takte, um einen Wert zu vervollständigen. Massiv gesteigert haben die Kanadier die Anzahl der Texture Samples, die pro Takt einen einzelnen Datenwert abrufen können. Pro Texturcluster gibt es 20 Texture Samples, insgesamt auf einem R600 also 80 dieser Einheiten
 
DocPsycho schrieb:
STFU-Sucker ich hab zwei auf ein sli board laufen es geht man muss nur wissen wie
Ach ja? Wie denn? Das wäre ja mal interssant zu erfahren?

SLI auf Crossfire Boards ist kein Problem. Das habe ich selbst schon gehabt. Nur gibt es keine passenden Treiber um Crossfire auf SLI Boards zu ermöglichen.

Komisch, dass du über so einen Treiber/das Wissen wie man Crossfire auf SLI Boards ermöglicht, verfügst, aber die ganzen Top Overclocker nichts davon wissen.

Also her mit den Informationen und ein paar Benchmarks/Beweisen :rolleyes:
 
Ist jetzt Offtopic aber es interessiert mich jetzt auch mal wie man auf einem SLi Board Crossfire zum laufen bekommt.
Wäre doch noch mal ne Überlegung wert noch eine x1900cf draufzupacken, obwohl ich mir nicht vorstellen kann, dass das funktiniert.^^
 
Ich hatte aber auch irgendwo ne News gesehen, über CF auf SLI Boards.
Finde den aber auch nit mehr.

@Oliver_F
Selbst wenn es geht, braucht er da nit eh den gleichen Chip für CF? Also ich mein bräuchte er dann nit eh noch ne 2900er?
 
Also ich hab mich da nochmal umgehört.

Crossfire auf SLI Boards ist nicht möglich, bzw es gibt derzeit keine passenden Treiber dafür.

Es ist/war im Gespräch Crossfire auf nicht Crossfire System zu ermöglichen. Doch hat ATI in dieser Richtung noch nichts unternommen, so dass Crossfire auch immer noch auf Crossfire fähige Chipsätze beschränkt ist.
 
@someguy: Hatte das mit der X1900CF auf mein System bezogen, da ich auch ein SLi Board habe.;)

@STFU-Sucker: Das würde ja bedeuten das er uns einem von Pferd erzählt.
 
Zuletzt bearbeitet:
Das würde ich jetzt fast wagen zu behaupten, zumal ich meine, dass der Catalyst für die 2900XT noch nicht einmal CF für die Serie freigegeben hat. Da mag ich mich aber durchaus täuschen.
 
Also ich finde die Diskusionen langsam zum kotzen!

Fakt ist, dass Nvidia mit Ihrer 8800 Reihe ein größerer Wurf gelungen ist als Ati mit ihrem R600.

Und wenn ich ständig das gelaber von den Treibern höre! Was denkt ihr??? Das er 30% Mehrleistung bringt??? Ist doch Bullshit sowas.


Wenn es so einfach wäre denkt ihr nicht das ATI dann noch gewartet hätte und die neuen Karten mit dem Optimierten Treiber auf den Markt gebracht hätte???


Die schiessen sich doch nicht ins eigene Bein. Was die im moment machen ist Schadensbegrenzung sonst nichts.


Ich ertrag es einfach nicht mehr aber klammert euch nur an jeden strohalm den es gibt!


Mir wäre es auch lieber wenn ATI ein absolutes Flagschiff entworfen hätte denn für uns hat es ja nur Vorteile (preiskampf) usw. Aber so ist es im Moment leider nicht
 
hi zusammen

weiß jemand woran es liegen kann,dass ich keinen 3dMark mehr starten kann(weder 03/05/06)
der startbildschirm kommt dann passiert nichts mehr.
Im Taskmanager steht keine Rückmeldung ( Prozessorleistung ist dann 50%)
hab die benchmarks schon neu installiert hilft nichts

kennt jemand das problem ?

ps: spiele laufen alle
 
Habe mir der Möglichkeit wegen eine HD2900XT ausgeborgt, aber richtig begeistert bin ich nicht. Spiele dabei nur mit einer Auflösung von 1280x1024.

ASrock DualVSTA --> unmöglich gewesen die in Gang zu bringen.
GB DS3 --> nach einigem Hick Hack, lief das Ding.
Asus P5K Wifi... --> Probleme gehabt im Betrieb.

Mit nforce Chipsets verträgt sich die Karte scheinbar auch nicht wirklich.
Hatte die Möglichkeit mit nforce pro 3600 es zu testen --> nichtmal Bootscreen vom Bios.

Gameplay-Feeling getestet, ist mir eine 320MB GTS8800 lieber als die HD2900XT.
Bildtechnisch auch, selbst im Desktop, sieht die GTS schärfer aus (TFT).
Dann zieht die HD kleine Streifen (vertikal) übers Bild kommt hinzu.

Bin ja sehr pro AMD gesinnt, nur die HD ist ein Wurf...oder mein Exemplar war eine Montagskarte. Zum Glück ist die von ATI und AMD baut sich die CPUs selber.

Sollen endlich den verdammten K10 Opteron Quad rausbringen, wenns so weitergeht kann ich mir den tatsächlich leisten vor lauter Sparen/Warten (schon 3.000Teuronen auf der Seite und im Juli kommt Urlaubsgeld nochdazu...)
 
Fakt ist die AMD ATI HD 2900 XT war ein Reinfall und höchstwarscheinlich als Schadensbegrenzung gedacht, damit man nicht komplett den Anschluss an Nvidias führender Marktposition im Grafikkartensegment verliert.

Tja, und wer weiterhin auf die Wundertreiber wartet, der ist selbst schuld. Diese Gerüchte kennen wir spätestens seit Nvidias Versprechen auf Wundertreiber mit der 8x00 Serie.
 
Zurück
Oben