News ATi Radeon HD 3850 & HD 3870 im Detail

plank89 schrieb:
Ich denke mal die HD 3870 wird in etwa gleichauf sein mit der 8800gt, bei niedrigeren auflösungen, bei höheren wird vermutlich das 256bit Speicherinterface limitieren.

Wie meinst du das? Es haben beide Karten ein 256bit Speicherinterface, nur dass der Speicher der Radeon um gewaltiges schneller taktet. Oder hab ich an deiner Aussage was falsch verstanden?

@ Major Fleischer
Danke für deinen Post! Jetzt sind wir alle klüger.
 
@DvP: Sry ich hab mich ein bisschen falsch ausgedrückt! Ich meinte natürlich sie wird in höheren Auflösungen vermutlich mehr einbrechen als die HD2900xt, da die ja ein 512 bittiges SI hat!
 
Tja ich würde aber gerne wissen was die HD2900XT falsch macht, denn die Speicherbandbreite ist sogar noch deutlich höher als jene einer 8800 Ultra. Trotzdem bricht sie ein. Ich hoffe, dass der verantwortliche Fehler bei der HD3870 behoben wurde.
 
man labert ihr nur fan gerede XD ich lach mir einen ab was nvidia da abzieht ist nur propaganta und nicht mehr stad ati zu vernichten sollte nvidia mal was für craysis tun nähmlich die fps rauf haun uns so lange nvidia das nicht kann ist noch nichts endschieden z.w ati und nvidia eine ultra kostet um die 500 euro und schläg sich so gut wie eine mainstream karte (8800 gt ) ohne anti 4X hmmmmmmmmm was ist da los ich kann euch sagen was da los ist die 8800 gt ist keine neue karte es ist eine ultra oder gtx sie endscheiten sich nur minimal es ist der selbe chip (g80) nur weniger getacktet Und so weiter ihr werdet euch so aufregen wegen der schlechtern pef von nvidia das ihr alle euch die neue ati karte zulegt nämlich die HD 3870 bye nvidia willkommen ati sage ich nur und viele die über nvidia so nur schwärmen werden sich zu ati wecheln dann vielspaß beim geld ausgeben XD
 
nvidia macht und macht und macht und ich lacht wieso kann ich euch sagen nvidia sollte sich um crysis kümmern den da wird alles endschieden z.w ati und nvidia nvidias 8800 ultra ist so schlecht finde ich das man sie gleich weg werfen sollte 35 fps hallo für 500 euro wartet nur auf atis antwort nvidia haut die 8800gt raus und alle sind happy und freun sich ati haut eine karte raus und alle sagen das ati nichts mehr drauf hätte doch ich sage nur wartet auf die ersten bench dieser bench wird so sein wir der erste mench auf dem mond ich sage nur crysis mit 40 fps minimum die hd 3870 wird schneller als alles auf dem markt ati hat draus gelernt denke ich und alle die jetzt eine ultra oder eine gts besitzen werden ploß doff schaun weil eine 250 euro karte aller ati eine ultra hinder sich herzieht viel spaß beim wegwerfen:evillol: ati kommt zurück
 
das sind mir die richtigen! mama nich zuhause, das erstemal ne kanne kaffee getrunken und dann heimliches posten unter der bettdecke :freak:
 
@Ghettotyp
Sarkasmus ein
Selden sofil Sbas gehapt wi bai dainen zwai Bosts.
Sarkasmus aus

Sorry, aber das musste jetzt sein.
 
@Ghettotyp

Es wäre schön, wenn du beim nächsten Beitrag die entsprechenden Satzzeichen verwenden würdest. So jedenfalls kann man es sehr schlecht lesen.

Gruß.
 
Zak McKracken schrieb:
@Ghettotyp

Es wäre schön, wenn du beim nächsten Beitrag die entsprechenden Satzzeichen verwenden würdest. So jedenfalls kann man es sehr schlecht lesen.

Gruß.
Mir wird eher schlecht beim Lesen.

Ich bin jedenfalls auch auf die ersten Testergebnisse gespannt. Würde mir gerne noch vor Weihnachten eine neue Karte kaufen, obwohl es wahrscheinlich die dämlichste Zeit dafür ist. :rolleyes: Trotzdem muss ich endlich meine 1800XL All-In-Wonder ersetzen. Damit läßt sich nämlich mittlerweile nichts mehr reißen. :(
 
@ DvP

Die HD 2900XT bricht nicht ein weil sie ein defekter Chip ist oder was sonst noch so manche behaupten, sondern das ist einfach architekturbedingt.

Nvidia hat über Die Zeit hinweg (und auch bei der 8800er reihe) immer die Shader- und Texturleistung eher ausgewogen gesteigert.

ATI hingegen stagniert schon seit längerer Zeit mit der Texturleistung auf einem ähnlichen Level, jedoch wurde die Shaderleistung brachial erhöht.

Diese Umstände erklären einiges:
Um die qualitätsverbessernden Features (AA&AF) zu verwenden, wird relativ viel Texturleistung verbraucht, von der ATI nicht so viel hat wie Nvidia. Darum auch das stärkere Einbrechen der ATI.

Da die Spiele mit der Zeit immer mehr Shaderleistung verlangen, aber die benötigte Texturleistung im Verhältnis dazu nur langsamer steigt erklärt das auch den Umstand, warum die Nvidia Grafikkarten beim Launch meinstens gleich schnell oder schneller als gleichwertige ATI karten (aufgrund der wesentlich höheren Texturleistung), aber die ATI Karten mit der Zeit immer mehr Abstand zu den Nvidia Karten gewinnen, da die neueren Spiele wieder um einiges mehr Shaderleistung wie Texturleistung benötigen. Darum ist die ATI aufgrund der hohen Shaderleistung architekturbedingt zukunftssicherer als vergleichbare Nvidia karten.
Das sieht man am besten im Moment an der Radeon X1xxx reihe im vergleich zur geforce 7xxx.
Beim Launch war die Radeon meist ein wenig langsamer als die Geforce, jedoch wird diese heute von einer (damals) vergleichbaren ATI mit neueren Spielen dermaßen nassgemacht ^^

Nachzulesen(natürlich viel genauer) sind diese Umstände im Artikel über die HD2900XT auf www.3dcenter.de

mfg plank89
 
Zuletzt bearbeitet:
plank89 schrieb:
Darum ist die ATI aufgrund der hohen Shaderleistung architekturbedingt zukunftssicherer als vergleichbare Nvidia karten.


Kommt drauf an was einem wichtiger ist, aktuelle Spiele mit z.b. 80 statt 60fps zu spielen oder zukünftige Spiele mit 50 statt 45fps ;)
 
plank89 schrieb:
Da die Spiele mit der Zeit immer mehr Shaderleistung verlangen, aber die benötigte Texturleistung im Verhältnis dazu nur langsamer steigt erklärt das auch den Umstand, warum die Nvidia Grafikkarten beim Launch meinstens gleich schnell oder schneller als gleichwertige ATI karten (aufgrund der wesentlich höheren Texturleistung), aber die ATI Karten mit der Zeit immer mehr Abstand zu den Nvidia Karten gewinnen, da die neueren Spiele wieder um einiges mehr Shaderleistung wie Texturleistung benötigen. Darum ist die ATI aufgrund der hohen Shaderleistung architekturbedingt zukunftssicherer als vergleichbare Nvidia karten.
Das sieht man am besten im Moment an der Radeon X1xxx reihe im vergleich zur geforce 7xxx.
Beim Launch war die Radeon meist ein wenig langsamer als die Geforce, jedoch wird diese heute von einer (damals) vergleichbaren ATI mit neueren Spielen dermaßen nassgemacht ^^

Das ist leider alles Quatsch.
ATI reduziert nur immer weiter die Texturqualitaet um sich dadurch einen Vorteil zu verschaffen, das ganze nennt sich A.I und der User hat da keinen Einfluss drauf.
Bei den R600 ist ATI sogar soweit gegangen und laesst selbst bei deaktiviertem A.I. keine volle Texturfilterqualitaet mehr zu.

Um ATI-Karten mit Nvidia vergelcihen zu koennen, muss A.I. abgeschaltet werden und dann liegen die Radeons auf demselben Leistungsniveau wie auch Nvidia (HT4U hat das frueher immer mitgetestet).
 
@ kisser

Auf A.I. hat der User sehrwohl einen Einfluss!
Wie du weiter unten richtig festgestellt hast, lässt sich A.I. deaktivieren.

Weiters stimmt deine Aussage ATI würde die Texturqualität immer weiter verringern so nicht. Eine HDxxxx grafikkarte hat eine bessere BQ wie eine X1xxx, bei relativ gleich bleibender Texturleistung.

bitte lies dir den von mir genannten Artikel auf www.3dcenter.de durch, und du wirst auf etwa dieselben Ergebnisse kommen wie in meinem vorhergehenden Post

mfg Plank89
 
@plank89
das stimmte vll teilweise beim G70 vs. r580
da hatte der G70 einfach verdammt wenig rechenleistung aber ne relativ hohe füllrate

aber der G80 hat gar nicht so viel weniger rechenleistung als der r600
auch in zukunft wird der r600 kaum besser aussehen gegen nen G80/G92

und das mit dem deaktivieren von A.I. ist ne schlechte ausrede
dadurch werden auch einige tweaks deaktiviert, die bei manchen games einfach nötig sind
bei ati kann man einfach nicht nur die tweaks aktivieren und die "optimierungen" der filter ausstellen um eine perfekte filterung zu erhalten
klar sind diese "optimierungen" nicht so dermassen schlecht wie bei nvidia zu G70 zeiten, aber es wäre schon schön wenn man irgendwie die volle pracht geniessen könnte(wie momentan beim G80)
 
Zuletzt bearbeitet:
@bensen

Du hast recht. Dieses Phänomen werden wir bei der aktuellen Grakageneration nicht mehr so ausgeprägt erleben, da die Unterschiede nicht mehr so gravierend sind.

Jedoch wollte ich durch meinen Post primär die Ursachen für das starke Einbrechen der HD2900XT mit AA&AF erklären.

die BQ mit aktiviertem A.I. ist jedoch bei der ATI auch beinahe am selben Niveau wie die der Nvidia(natürlich im High Quality modus)
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index7.php

im endeffekt nehmen sich beide karten bei der BQ nicht viel, wobei die 8800er serie leicht besser ist(nur unter High Quality, default ist Quality eingestellt, dieser Modus ist schon um einiges schlechter da hier wieder nur dieses "brilineare" zwitter-filtern angewandt wird (welches noch von der GF7 bekannt ist.) Die "volle Pracht" erhältst du auf der 8800er Reihe auch nur wenn man nicht default eingestellte High Quality verwendet.

mfg plank89
 
Zuletzt bearbeitet:
Also laut Fudzilla wird die 3870 für 199 Dollar in den Handel kommen.
Die Karte soll ewas weniger Leistung haben wie die 8800GT.
Ich hab mal gerechnet ;). Ist nur Spass. BZW Crysis müsste dann laufen.
Auf den neuen AMD Mainboards mit 790FX Chipsatz können bis zu 4 Grakas drauf.
Ist auch von AMD bestätigt das QuadCrossfire funktioniert.
4 mal eine 3870 = ca 800 Euro. (Fudzilla merkte an das die Preise recht schnell fallen können, weil die GT ja ne UVP von 229 Euro hatt und die GT ist ja schon ab 218 gelistet)
2 Karten mit R600 im CF kommen schätzungsweise auf 17000 Punkte im 3DM06
4 Karten mit r670 im QCF kähmen schätzungsweise auf 34000 Punkte im 3dm06
Bald kommt der R680 das ist ne DualKarte also 2 r670 auf einem PCB.
4 R680 im QCF müssten dann auf ca 70000 (siebzigtausend)Punkte Kommen im 3dM 06 :)
Hahahaha
 
Zuletzt bearbeitet:
Zurück
Oben