Test Test: ATi Radeon HD 4850 (CF) und HD 4870

Finde ich ja mal sehr interessant, dass eine 9800GX2 fast 140 € Preiswerter ist als eine GTX280 und dabei fast immer schneller ist. Gruß an alle die, die immer das neuste in ihrem Rechner haben wollen. hehehe
 
perfekt!57 schrieb:
ATI macht mal wieder alles falsch. Wie immer glatt wie eine Looserfirma.

Worum geht es? Die Performancekrone zu holen und Preis-Premium zu sein.

Nur dann verdiene ich richtig Geld.

Wo verdienen Firmen Geld mit ihren Grafikkarten: OEM-Markt
 
Hi ich bin jetzt erst dazu gekommen mir den test anzugucken.
der test ist CB-Standart also standartmässig schlecht, da dem leser nur buten balken ohne grosse bedeutung presentiert wird. Unkalr ist ob das durchschnittswerte, minimumwerte oder maximumwert sind. Nehmt euch mal ein beispiel an PC Games Hardware!

Wovon ich aber wirklich enttäuscht bin ist das so gut wie garnichts zu der qualität des CF modus gesagt wurde. Wenn ihr schon die 4850 im CF Modus rannehmt und die darin teilweise auch noch so gut abschneidet, woe wäre es mit paar worten zu Qualität der Darstellung mit 2 RV770. Wie siehts aus mit Microrucklern und anderen krankheiten? Ich hab gehört das CF mit dem RV770 verbessert werden soll. Aber schade CB verliehrt kein wort dazu nur das die Karte teiwlesie nicht so gut skaliert, gut das seh ich selbst wenn ich mir die bunten balken angucke. Manchmal frage ich mich ob ihr die test wirklich selber durchfuehrt oder einfach nur von den firmen bunte balken zugeschickt bekommt.
 
Zuletzt bearbeitet:
@miagi

Überarbeite bitte Dein Posting in Bezug auf Rechtschreibung und Grammatik damit man es ernst nehmen kann. Danke.
 
LOL miagi
Beklagst Dich über die bunten Balken....bei der Rechtscheibung bezweifle ich, dass DU mit mehr Infos etwas anfangen könntest.
 
Radeon HD 4850 und 4870 ersetzen die gleichnamigen Modelle der 3000er-Serie und basieren ebenfalls auf dem RV770. Allerdings soll sich die Anzahl der Shader Einheiten von 320 auf 480 erhöhen und die TMUs sollen sich auf 32 Stück verdoppeln. Die Speicherschnittstelle bleibt nach wie vor bei 256 Bit. Dank der verbesserten Stromspartechnik soll der Energieverbrauch bei keiner Belastung unterhalb von 10 Watt liegen. Der Verbrauch unter Last wird bei der HD 4870 mit 150 Watt, bei der HD 4850 mit 120 Watt angegeben. Die HD 4870 soll mit 1 GB Speicher kommen und mit 1050/2200 (Chip/Speicher) getaktet sein, während die HD 4850 mit 512 MB GDDR5-Speicher kommt und mit 850/1800 MHz (Chip/Speicher) taktet.

Im Mainstream-Bereich kommen die Radeon HD 4650 und 4670, basierend auf dem RV740. Hier kommen 240 Stream Prozessoren, 12 ROPs und 24 TMUs zum Einsatz, unterstützt durch ein 256-Bit Speicherinterface. Auch hier soll der Stromverbrauch im Idle-Zustand unter 10 Watt liegen. Die HD 4650 soll mit 512 MB GDDR4-Speicher kommen und mit 1000/1200 MHz (Chip/Speicher) takten. Die HD 4850 dagegen ist mit 256 MB Speicher ausgestattet und läuft mit 800/1000 MHz (Chip/Speicher). Erstere verbraucht etwa 100 Watt, während zweitere mit etwa 80 Watt auskommt.

Der RV710 kommt im Low-End-Bereich zum Einsatz: Hier plant AMD die Radeon HD 4450 und 4470. Laut den Spezifikationen sind 40 Shader Einheiten, 4 ROPs, 8 TMUs und ein 128-Bit Speicherinterface vorgesehen. Es werden sowohl DDR2- als auch GDDR3-Speicher unterstützt. Im Idle-Modus soll der Stromverbrauch bei diesen Karten unter 5 Watt liegen, im 3D-Betrieb soll der Verbrauch bei 50 (4470) bzw. 30 (4450) Watt liegen. Die Radeon HD 4470 verfügt über 256 MB GDDR3-Speicher und ist mit 900/800 MHz getaktet. Die Radeon HD 4450 dagegen kommt nur mit 128 MB DDR2-Speicher und besitzt Taktraten von 700/500 MHz (Chip/Speicher).

Quelle = Klicken
 
ob bunte balken oder schöne rechtschreibung , fakt ist ,...


"schönheit ist vergänglich und doof bleibt doof ( schon immer so gewesen )" :D:D:D , soweit so gut zum subjetiven

ps: miagi , jede testseite hat ihre eigene "handschrift" , darum gib es soviele um es zu verschlimmbessern oder aufzuhüpschen . :D:D:D:D
 
Nun wie es aussieht ist die ATI4780 fast so schnell wie eine GTX 280! und das für 300€ weniger! Dazu bitte den Test von Tomshardware lesen (die schon sowieso bissel für Nvidia immer waren, geben ein klares Urteil!). Ich wage da nicht zu zweifeln das wenn die 1GB Variante rauskommt diese zusammen dann mit den neuen Treiber 8.8 Schneller als dir GTX 280 in jeder lage ist.

P.S. Wenn ich noch mal anmerken kann?!? ATI hat die Leistungskrone wieder!:D
 
Zuletzt bearbeitet von einem Moderator: (Multiple Satzendzeichen entfernt. Bitte Regeln beachten!)
michafol schrieb:
überflüssiges Zitat entfernt *klick*

Ja, wenns bei Toms so geschrieben steht, dann wirds wohl auch stimmen... :rolleyes:

Und die Leistungskrone haben die ganz gewiß nicht wieder - fraglich ist, ob sie die jemals wieder bekommen werden.
Da ändert auch doppelter Speicher nichts dran, daß die 280 GTX besser ist.

Aber egal - herzlich willkommen bei Computerbase ;).
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt. Bitte Regeln beachten.)
Naja, heutzutage würde ich mehrere Testberichte reinziehen bevor ich was kaufe.
Ich finde die Tests wie auf Hardocp.com sehr informativ wegen Angabe der min. Frames und Zeitbalken.
Könnte CB eigentlich auch mal einführen.
 
"Naja, heutzutage würde ich mehrere Testberichte reinziehen bevor ich was kaufe."

korrekt !

wobei , ca. 250 äppelstücke für diesen sahneschinken :D ,... da iss man doch bis zur "cryengin
3" gewaschen und gekämmt :D

ps: und billiger wirds auch noch ;)
 
@CB

Könnt ihr bei eurer Lautstärke-Tabelle diese Prozentangabefunktion rausnehmen oder diese richtig machen? Also immer, wenn man auf eine Grafikkarte mit der Maus geht, werden Prozentpunkte angezeigt. Da die dBA Skala logarithmisch ist, könnt ihr nicht einfach von den Zahlen auf die Prozentpunkte umrechnen, sonnst schließt jemand aus der Überschrift "Lautstärke" schnell mal, dass die eine Graka so und so viel Prozent lauter ist als die Andere, was einfach falsch wäre.
 
Zuletzt bearbeitet:
Hi ich bin jetzt erst dazu gekommen mir den test anzugucken.
der test ist CB-Standart also standartmässig schlecht, da dem leser nur buten balken ohne grosse bedeutung presentiert wird. Unkalr ist ob das durchschnittswerte, minimumwerte oder maximumwert sind. Nehmt euch mal ein beispiel an PC Games Hardware!

Wovon ich aber wirklich enttäuscht bin ist das so gut wie garnichts zu der qualität des CF modus gesagt wurde. Wenn ihr schon die 4850 im CF Modus rannehmt und die darin teilweise auch noch so gut abschneidet, woe wäre es mit paar worten zu Qualität der Darstellung mit 2 RV770. Wie siehts aus mit Microrucklern und anderen krankheiten? Ich hab gehört das CF mit dem RV770 verbessert werden soll. Aber schade CB verliehrt kein wort dazu nur das die Karte teiwlesie nicht so gut skaliert, gut das seh ich selbst wenn ich mir die bunten balken angucke. Manchmal frage ich mich ob ihr die test wirklich selber durchfuehrt oder einfach nur von den firmen bunte balken zugeschickt bekommt.

Ausserdem ist nicht nur das leistungsverhaeltnis zweier karten wichtig sondern die tatsächlichen fps werte sind das wichtigste. ist ja schön wenn die gtx280 z.B. doppelt so viele fps beitet wie die 4870 aber das bringt garnix wenn die gtx280 bei 10 fps und die 4870 bei 5fps rumrödelt. Den das wären 2 ergebnisse ohne sieger sonder nur mit 2 verlierern

mit rechtschreibkritik oder gramatikkritik kann ich gut leben (besonderns wenn ich nicht viel zeit habe) nur schade das in einem fachforum sich kaum einer um den inhalt kümmert sondern alle fanboys dessen was man kritisiert nur auf sowas wie rechtschreibung verweisen... arm
 
Zuletzt bearbeitet:
Falls du dir die bunten Balken mal genauer angeschaut hast: Da stehen genau die geforderten FPS-Werte. Und warum musst du den unkorrigierten Text von oben nochmal mit in den nächsten Beitrag nehmen?

Und Bildqualität:
Bildqualität:
In Sachen Bildqualität hat sich auf dem RV770 nichts getan. Sowohl der anisotrope Filter als auch das Anti-Aliasing arbeiten auf ein und demselben Niveau wie auf einem RV670, weswegen unsere Beobachtungen beim Launch-Review zur GeForce GTX 280 immer noch gelten. Der RV770 ist mit dem RV670 völlig gleichzusetzen. Zwar wurde in den Textureinheiten die Präzision leicht erhöht, jedoch soll das keinen (oder eher nur einen theoretischen) Einfluss auf die Qualität des anisotropen Filters haben.

Wo testet PCGH Online eigentlich CF bei den HD4800er? Und wo sagt sie was zu Mikrorucklern? Und das hier üblicherweise die durchschnittlichen FPS angegeben werden ist auch nicht so neu.
 
Zuletzt bearbeitet:
@ miagi

Mag sein, dass PCGH tiefer ins Detail geht. PCGH hat aber mehr Mitarbeiter und die machen das, weils ihr Job ist und sie Geld für bekommen - CB nicht. Du solltest zudem beachten, dass das NDA von 15h auf 6h verschoben wurde und der Autor des Artikels in massive Zeitnöte geraten sein könnte. Unter den Diagrammen steht zudem, dass die Fps sind - wenn auch nicht welche. Das es die AVG sind, sollte aber klar sein.

Wer Zeit hat, zu schreiben, seine Rechtschreibung sei schlecht, weil er keine Zeit hat, ist ein *****. Statt sich mit so einem Bullshit rauszureden, könnte man die Zeit nutzen und gleich in korrektem Deutsch schreiben.

cYa
 
Denahar schrieb:
Sorry, das verstehe ich jetzt nicht. Könntest du das bitte etwas erläutern?
Ganz einfach, wenn jemand damit argumentiert, dass man 2 GPUs nicht mit einer vergleichen kann, könnte ich genauso argumentieren, dass man einen Mainstream Chip auch nicht mit einem High-End Chip vergleichen kann. Erst recht nicht, wenn ein Grössenfaktor von 2,25 dazwischen liegt.

Freynhofer schrieb:
Das V steht da bloß, weil die GPU nicht mit der 200er von Nvidia mithalten kann.
Das V stand schon dort, da war vom GT200 noch überhaupt nichts zu sehen. ;)

Freynhofer schrieb:
Wenn Ati in der Lage wäre, etwas gegen das Highend-Segment von Nvidia entgegen zu halten, dann hätten sie das auch getan.
Aber es sieht natürlich wesentlich besser aus, wenn man mit eine Midrange-Karte gegen eine Highend-Karte anstänkern kann.
Frustrierter nVidia Käufer? Ich sag dir mal was, ich hatte bisher immer nVidia, muss aber neidlos zugeben, diese Runde geht glasklar an ATI. ;) Mal abgesehen davon, fürs High-End haben sie ja ebenfalls etwas parat, siehe Dual-RV770.

Freynhofer schrieb:
Der günstige Preis ist lediglich die logische Konsequenz dafür. Sonst würde man letzten Endes garnichts mehr verkaufen - froh ist Ati darüber aber ganz gewiss nicht ;).
Also so wie ich das sehe, musste nVidia die Preise notgedrungen nach unten korrigieren, nicht ATI. Und günstiger kann ATI deshalb verkaufen, weil sie auch günstiger produzieren.

@perfekt!57
Sry, aber deine "Argumentation" ist einfach nur lächerlich.
 
Wenn nV die ganzen G92 auf 55nm umgestellt hat, können sie im Spätsommer/Herbst die Preise ebenfalls senken. Bis dahin muss AMD den Vorteil nutzen.

cYa
 
below schrieb:
ich glaubs net...da les ich auf der Arbeit den Test und denk mir "Hmm, interessante Karte, könnte man evtl endlich mal Crysis zocken ;)"...komme heim, fahr den Rechner hoch und auf einmal nurnoch Striche und Sonderzeichen aufm Bildschirm. Und das bei kaltem Rechner...also neu hochgefahren und gleich beim Start das gleiche Bild...Lauter Striche und der Text sieht aus wie Pacman...wohl zu laut an ne neue Graka gedacht.

Jetzt nur die Frage was als Ersatz für meine 8800GTS (G80) herhalten soll. Die 50er oder die 70er...nen deutlichen Leistungsschub dürften ja beide bringen

was für ein zufall^^
meine 6800ultra hat sich auch vor kurzen aufgeraucht!

jetzt warte ich schon 1 jahr auf eine karte die crysis perfekt zum laufen bringt.


was mich jetzt noch brennend intressiert ist was die 4870 in crossfire system bei crysis in 1680x1050 1xAA/1xAF: hergibt. wenn das game nicht unter 40fps. geht, kauf ich die mir sofort!!!

will endlich mal ein rechner haben mit dem man crysis ohne probleme flüssig dargestellt wird.
 
Die HD4k sucken wie auch die HD3k in Crysis - eine GTX 280 macht sich da besser, flüssig packt die 1.680 "high" aber auch nur bedingt.

cYa
 
Zurück
Oben