News Bilder der Radeon HD 5870

Wir werden sicherlich noch dieses Jahr alternative Kühllösungen bewundern können.
Auch wenn ich das Design sehr schick finde :)

Und das SI von 256bit wird sicherlich reichen. Wieso sollte AMD so eine Mörderkarte mit einem brutalen >300mm² Chip bauen, und dann SI sparen *.*

Freu mich aber schon auf die 2GB Karte. Werde glaub ich zuschlagen wenn die unter 200€ fällt (in ca. 9 Monate denk ich mal), oder aber zu nVidia wechseln, wenn der GT300 der Brüller wird.
 
Eyefinity kann noch mehr:
th_20090910203831_eye3.jpg

4 HD5870 in Crossfire X.

Mehr zu Eyefinity bei AnandTech.
 
So langsam sickern erste Benchmarks zur 5870 durch (kein Anspruch auf richtigkeit) ->

Veröffentlicht in 2009-9-10 14:39 | Blick des Autors HD5870 Crysis Benchmark 分数(核心频率高于零售版) HD5870 Crysis-Benchmark-Ergebnisse (Kern-Frequenz höher ist als der Retail-Version)
CPU:AMD Phenom II X4 955BE CPU: AMD Phenom X4 955BE
Win 7 RTM Win 7 RTM
VGA: HD5870 1GB (Kern-Frequenz höher ist als der Retail-Version)

Crysis 1900x1200 4AA+16AF DX10 Very High
min:30.**
avg:43.**
max:54.**

(nicht wundern ich hab die Seite durch den Google übersetzer gejagt)

http://translate.google.de/translat...&extra=page%3D1&sl=zh-CN&tl=de&hl=de&ie=UTF-8
 
Zuletzt bearbeitet:
@ grueni : Muss man eben sehen - CB hat wenn ich mich recht erinnere ja nicht den normalen Crysis-Benchmark sondern einen eigenen -hardwareintensiveren- "Parkour" verwendet.
Mal sehen was sich die nächsten Stunden so tut.
 
Zuletzt bearbeitet:
AMD says that their next-gen GPU will 250% faster than the one introduced in Jul of 2008. That is going by raw TFLOPS

Das klingt nicht nur wie in einigen wenigen Bereichen mit 8xAA:evillol:
 
sollte die hd 5xxx serie wirklich sogut bei so hohen auflösungen skalieren und gäbe es wieder eine möglichkeit ssaa im treiber einzustellen wäre das echt ideal
 
Zum Heulen, immer grössere Monster. Verpackt wie neue Motoren. Hoff mein KFZ-Händler macht dementsprechend Lehrgänge. :D
Na echt, was soll denn das. Immer kleiner heisst im ganzen wohl immer grösser ?
Nuja, das kann kaufen wer will, ich net.
Ma guckn was sich da Nvidia einfalln lässt. Denke nix das viel besser wird.
 
"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt."


:D

Intel wird sich anstrengen müssen, mit ihrem Larabee, wohl war...Und ob nvidia 25% schneller ist, mit dem GT300 wage ich zu bezweifeln...
Ergänzung ()

http://www.youtube.com/watch?v=mzGtxlaPQqY

Direkt von AMD
 
Zuletzt bearbeitet:
bei ati vielleicht nicht. ich habe geforce 260, da verbindet man onboard stereo mit der grafikkarte (dünnes 2 poliges spdif kabel glaub ich). das signal wird durchgeschleift und mit dem beigelieferten adapter in den hdmi kabel gebracht. so nutze ich onboard soundkarte habe aber nur einen hdmi kabel nach draussen.

ob das sind in mein htpc passt... hdd käfig ist schon seit geforce 260 entfernt.
 
Zuletzt bearbeitet:
Scheint wirklich nicht die kleinste zu sein die gute ^^ . Gott sei Dank habe ich ein großes Gehäuse (falls ich wirklich zuschlage ;) ) -

Eyefinity-Testsystem.jpg
 
wenn sie wirklich so lang ist wie auf dem bild oben, wird sie locker in htpc passen, bis auf die stromanschlüsse von oben. das wird knapp.
27 watt ist auch sehr htpc freundlich. eventuell lässt sich der kühler in 2d komplett abschalten und die karte passiv kühlen.

intel mit 0,04GFLOP bei i7 9xx wird es schwer haben, bei high-performance computing noch ernst genommen zu werden. larrabe ist die letzte hoffung.
 
Zuletzt bearbeitet:
yurij schrieb:
bei ati vielleicht nicht. ich habe geforce 260, da verbindet man onboard stereo mit der grafikkarte (dünnes 2 poliges spdif kabel glaub ich). das signal wird durchgeschleift und mit dem beigelieferten adapter in den hdmi kabel gebracht. so nutze ich onboard soundkarte habe aber nur einen hdmi kabel nach draussen.

Was nvidia da treibt interessiert nur leider nicht die Bohne wenn es um die Soundausgabe der ATI Karten geht. ;)
 
@wandenbisser, ist klar, nur hat eine hier gefragt wie grafikkarte sound vom onboard chip holen kann. habs erklärt.

klar ist ATIs lösung besser. die liefert auch 8 kanalsound. meine nvidia variante max 2 kanäle.
 
eine hd5870 in action. endlich!!

oder doch wieder ein weiterer böser fake......:lol:

ich hab ja im forum gelesen das ati nochmal den lüfter bis zum release ändert und das die karte sogar noch kürzer wird....UND das man hinten an den 2 roten auslässen
(oder was das auch immer sein soll) hanf anbauen kann. ein weiterer kaufgrund. :P
 
Zurück
Oben