Test Test: ATi Radeon HD 4850 (RV770)

Zipfelklatscher schrieb:
Wenn ATI es endlich schaffen würde, Linuxtreiber zu schreiben, die Nicht-VESA-Auflösungen wie die meines Monitors (1680*1050) unterstützen, würde ich meine nVidia 8800GTS jederzeit gegen eine HD4850 tauschen. Aber die miesen Linuxtreiber seitens ATI waren für mich der Grund, warum ich seinerzeit von der 3870 reumütig wieder zu nVidia zurückgegangen bin.

Ansonsten ist die 4850 eine sehr nette Karte, die mich reizen würde, vor allem wegen dem niedrigen idle-Verbrauch, da ich nun mal zu 70% nicht spiele. Wäre da nicht das Problem mit den Linuxtreibern...


Naja ich glaube das ATI mit ihren Open Source Treibern auf dauer besser fahren wird als nVidia mit ihren ClosedSource Treibern.
Diese Aussage das man mit ClosedSource geistiges Eigentum schützen will ist echt lachhaft.
Seit AMD die Finger im Spiel hat sieht mann doch das sich alles zum guten wendet. Klar kann man die Versäumnisse ATi's der letzten Jahre nicht von heute auf morgen lösen aber es wird schon noch werden.
 
Um mal zum Artikel zurück zu kommen:

Sollte aus dem Kurztest nicht mal ein richtiger Test werden ? Technische Daten, Stromverbrauch, Preis-Leistung etc... oder kommt das nur zur HD4870 ?

Gruß, Isgaroth.
 
wie im text erwähnt erst wenn der NDA fällt..das ist morgen um 1500.

wenn lesen,dann ganz bitte^^


gruß
 
Ich habe eine Frage:

Wie sieht das jetzt mit Linuxtreibern aus?! Ich habe vor mein Sys. mit einer 64-bit Linuxversion zu betreiben, da mir die ganzen Viren und der ganze andere Windowsscheiß ziemlich auf den Nerv gehen. Aber, wenn ich, um die 4850, bzw. 70, betreiben zu können, Windows brauche, ... garnicht dran zu denken. (Gibt es vergleichbare nVidia? Mit Linuxtreiber und um die 140-160€?)
 
Dro'Doog schrieb:
Gibt es vergleichbare nVidia? Mit Linuxtreiber und um die 140-160€?

8800GTS, G92... zb

Treiberprobs bei NV unter Linux sind mir neu ^^

Aber zu den Grakas:

die 4850 mit nem anständigen Kühler und das Ding ist gekauft. Accelero passt bei mir leider nicht, und n Wasserkühler (der sicher 70 Euro kostet) für ne Karte die nur 140€ kostet, ich weiss ja nicht ^^

Aber ma schauen wie die 4870 in der Disziplin Lautstärke und Temperatur aussieht. Ich warte auf den Komplett-Test!!! ;)
 
@Dro'Doog: falls du linux nutzen willst wäre ne nv zum jetzigen zeitpunkt die bessere wahl. die 8800gts ist in allen gängigen auflösungen und einstellungen nah an der 4850 dran (meist 2% bis 4% dahinter) und kostet etwa das gleiche. wenn du nicht grad auf 30" und 8 x aa aus bist, stellt die 8800gts ne ganz gute alternative da ;)
 
Zuletzt bearbeitet:
Vllt. kann ich auch 'ne 64-Bit Windows besorgen, ... aber bis wann wird etwa ein Linux Treiber für die 4850 erwartet?
EDIT: Ich habe eine Idee ^^, ich habe zu dem Rechner 'ne Vista 32-Bit Version bekommen, ... 'n Freund sagte mir, dass man die CD bei Windows einschicken kann und die für 12€ auf 64-Bit umtauschen kann.
Ich will die 4gb meiner neuen Konfig. auch nutzen. Ich werde wohl oder übel bis auf die Veröffentlichung eines Linuxtreibers mit 64-Bit Vista klar kommen müssen v.v
2EDIT: Hm, ... 3,25ghz mit 32-Bit-XP sollten auch verkraftbar sein, ... also nochmal: Bis wann wird ein Linuxtreiber erwartet?
 
Zuletzt bearbeitet:
Einzigartige Leistung von AMD ATI !!!

Dabei muss man bedenken dass vor 1-2 jahren schon mal gerückte des konkurs von AMD ATi im umlauf waren und nun so war endlich ein würdier nachfolger der Radeon 1950xtx !!!

Mal gespannt was die HD 4870 und HD 4870 X2 so bringen das muss man sich mal vorstellen bei der HD 4870 X2 = 2 x HD 3850+ 30% Wahnsinn Crysis mit mehr als 100 FPS auf alles ultra high.

Ich sag nur in 2 -3 Jahren werden wie den angeblich so unerreichbaren Fotorealismus haben !!!!!
Weil konkurenz zwichen AMD Nvidia Intel ( Larreby ab 2009) die Leistung extrem Steigern und den Preis senken wird so wird highend grafik massentauglich !!!!!

google sponsored by cia and US goverment
 
Nur blöd, dass du bei deiner ach so tollen und vermeintlich schnellen Entwicklung ganz vergessen hast, dass sowohl ATI als auch nVidia mit ihrer DirectX 10 Architektur die 200 Watt-Marke geknackt haben und die Kühler mit X Heatpipes im Dual-Slot Design an ihren Leistungsgrenzen arbeiten. Noch mehr Leistung wird also erst durch DIE-Shrinks möglich und die kommen gerade mal alle 2 Jahre, (wenn man die Zwischenstufen wie 55nm und 80nm nicht mitzählt)
 
Dann haben wir halt bald X+Y Heatpipes und Triple-Slot Design bzw. Wakü ab Werk. Denkste wirklich, davon lassen die sich abhalten? Die Entwicklung muss weiter gehn und die Highend-Käuferschicht interessiert die Leistungsaufnahme doch eh nen feuchten Dreck. Klar ist das nicht erstrebenswert, aber so funktioniert Kapitalismus nunmal. Stillstand kann man sich da nicht erlauben.
 
aspro schrieb:
Denkste wirklich, davon lassen die sich abhalten?

Ja. Sie werden wohl oder übel auf kleinere Fertigungsverfahren warten müssen und in der Zeit an der Flexibilität und Effizienz der GPU arbeiten. Auch nVidias Chef selbst hat irgendwo in einem Interview mal gesagt, dass bei Leistungsaufname von etwas über 200 Watt einfach Schluss ist, da man mit konventionellen Kühlern einfach die Abwärme nicht mehr wegbekommt.


aspro schrieb:
Dann haben wir halt bald X+Y Heatpipes und Triple-Slot Design bzw. Wakü ab Werk.

Triple-Slot Design würde solche spielereien wie Triple-SLI und Crossfire X verhindern, weil einfach nicht genug Platz da ist. Ein neuer Mainboard-Standard lässt sich auch nicht so schnell durchsetzen. WAKÜ ist nach wie vor zu teuer für ein Referencedesign und es wird kein Hersteller eine Wakü als Referencedesign verbauen.

aspro schrieb:
Die Entwicklung muss weiter gehn und die Highend-Käuferschicht interessiert die Leistungsaufnahme doch eh nen feuchten Dreck. Klar ist das nicht erstrebenswert, aber so funktioniert Kapitalismus nunmal. Stillstand kann man sich da nicht erlauben.

Ich rede ja auch nicht vom Stillstand. Ich habe lediglich geschrieben, dass die Entwicklung nicht so schnell weiter gehen wird, wie mein damaliger Vorposter sich das in seinen Träumen ausgemahlt hat. Und auch wenn die High-End-Käuferschicht sich um Leistungsaufnahme einen feuchten Dreck macht, so hat auch diese Käuferschicht Ohren und kann auch nur einen gewissen Lärmpegel eins Lüfters aushalten. Eine Wakü können sie sich auch kaufen, aber es muss dennoch erst ein mal eine Karte in Referencedesign mit Luftkühlung geben, den Wakü wird kein Hersteller als Referencedesign verbauen.
 
@Dro'Doog: wenn du linux-gaming willst, kommste vorläufig wohl noch nicht um nv drumrum. so schnell geht das mit den treibern nicht. vergiss nicht, ati fängt im linux-3d-bereich erstmal bei 0 an! und da wird auch nicht so viel energie drauf verschwendet wie auf die windowstreiber. und ob die open-source-kommuniti ein so komplexes ding ohne weiteres realisieren kann...
ich denke da verstreichen noch ein zwei generationen bevor es ausgereifte 3d-treiber mit ordentlicher performance gibt...
 
xp_home schrieb:
Nur blöd, dass du bei deiner ach so tollen und vermeintlich schnellen Entwicklung ganz vergessen hast, dass sowohl ATI als auch nVidia mit ihrer DirectX 10 Architektur die 200 Watt-Marke geknackt haben und die Kühler mit X Heatpipes im Dual-Slot Design an ihren Leistungsgrenzen arbeiten. Noch mehr Leistung wird also erst durch DIE-Shrinks möglich und die kommen gerade mal alle 2 Jahre, (wenn man die Zwischenstufen wie 55nm und 80nm nicht mitzählt)

angeblich haben wir schon ende dieses Jahres 40 bzw 45nm mit dem R800...des geht jetzt fixer als alle 2jahre,wir sind ja net bei Nvidia^^


gruß
 
@Schinzie
Von welchem Unterschied redest du? ATI und nvidia haben da einen ähnlichen Rythmus. Die 8800 GTX wurde ja auch nicht vor 2 Jahren, sondern eher vor 1,5 Jahren veröffentlicht.
 
Aso... oO
 
Zurück
Oben