News Bilder der Radeon HD 5870

Exar_Kun schrieb:
Mich würden die Bildschirmränder bei der Konfiguration mit sechs Monitoren ganz schön stören, glaub ich.

Bei Anandtech steht ja auch am Ende des Artikels, dass ATI bereits mit einem TFT Hersteller (Samsung) zusammenarbeitet, um eine 3x2 Konfig mit sehr schmalen Rändern und ohne Power-LEDs an der Vorderseite arbeitet ;)
 
Ich steck ja schon Geld in Hardware aber bei so einer 6x30"-Konfig würde es für mich wirklich aufhören - trotzdem schön zu sehen was möglich ist ^^ .
 
2-1080.3675683014.jpg

:watt:
Stock häßlich das Ding, mit nem kleinem u. sehr lautem Lüfter. :jumpin:
Durch die Luftauslaßschlitze paßt auch nicht viel Luft (Strömungsungünstig), sieht dadurch sehr hitzeliebend aus
(man könnt auch wahrlich sagen: iss nen echt heißes Teil ("nen heißes Eisen"/"nen echt heißer Feger", das ganze). LOL :D :D :D
(gib's halt nicht nur bei Frauen, sondern, wie man hier so sieht, auch bei Grakas)
Warum nimmt sich ATI nicht ner Kühlkonstruktion ala Sapphire od. HIS od. Palit bei Nvidia als Vorbild an???

Sieht allgem. jedoch ehr aus, wie nen neues, geheimes russisches Jagd-U-Boot, mit den frontseitigen Torpedoausstoßrohren, anstatt ner Graka. :lol:
 
Zuletzt bearbeitet:
Ihr werdet das Teil ja auch sooo oft zu gesicht bekommen... Hauptsache es ist leise und kühlt die Grakka gut (erfüllt seinen Zweck).

Worüber ich eig. eher entäuscht bin ist der Stromverbrauch der scheinbar mit 190W TDP nicht gering ausfällt. Vorallem auch noch in 40nm Fertigung. Mit der HD4770 hatte ATI einen perfekten weg eingeschlagen (Kühlkonzept der Referenzgrakka + sparsamer und kleinerer Bauweise der Grakka) hätte man sich blos darauf Konzentriert.. Ich wette es ist machbar mehr Performance/Watt rauszubringen oder die Kleine Bauweise und niedrigen Strombedarf einzuhalten wie bei der HD4770. "Die 40nm werden es schon richten" dachten die sich wahrscheinlich, hauptsache die ersten in DX11 + Performance Krone für paar Monate oder so.

Aber egal, erstmal Tests abwarten vllt. ist die HD5850 was für mich, eig. wäre mir eine HD5770 am liebsten :D
 
Crystal wasn das fürn schmarrn den du da von dir gibst ? Es gibt Low-End, Midrange, Performance und High-End. Da ist für jeden was dabei was den Verbrauch Leistung und Wärmeentwickling angeht.

Performance und High-End ist numal die Ecke in der viel Strom unter Last verbraucht wird. Ohne vorher zu wissen wie schnell die Karte wirklich ist, kann man nicht ohne weiteres sagen: " 190 Watt TDP ? Wie scheisse! "

Und ihr habt leider immer einen Denkfehler. Die Strukturgröße ist kleiner geworden aber der komplette Chip nicht ! Weil man z.B die Shadereinheiten verdoppelt hat und noch andere Änderungen vorgenommen hat um die Leistung zu steigern......
 
Ihr habt euch heute aber wieder lieb :D . Persönlich bin ich sicher dass,das auf den Bildern zu sehende Vorführmodell aufgrund des kleinen Lüfters ein ganz schöner Brüllaffe ist. Ich tippe (und hoffe) jedoch das die Versionen die den Markt stürmen eine andere Lösung verbaut haben .
 
Zuletzt bearbeitet:
Gamer.Gamer schrieb:
Und mein gott ja sie ist hässlich aber die wird 99,9% nicht so verkauft..


Da die meisten eh ein geschlossenes System haben, wird ihnen das Aussehen der Karte aber auch mal sowas von am Allerwertesten vorbei gehen ... ;)
Hier geht´s nur um Leistung und Krone, der Rest ist doch Peng. :evillol:

Immer dieses unkontrollierte Umeinander spekulieren. Wartet´s doch ab, was sie kann, wie sie ist, was sie kostet.
CB wird´s euch bestimmt nicht vorenthalten. :)
 
Hab ich ganz verpasst, dass da die neue Graka-Generation jetzt auf den Markt kommt :D

Normalerweise ist es doch so, dass die Software der Hardware vorraus ist, weils einfach schneller produziert ist...aber ich würde sagen im PC-Bereich sollten die Spiele-Hersteller mal so langsam anfangen den Hintern hochzukriegen, da kommt schon ne neue Graka-Generation raus und die Spiele, die die letzte Generation richtig auslasten kannst an einer Hand abzählen...
 
Also ich weiß ja nich was mit euch los ist, aber eine Graka nich zu kaufen weil sie optisch nicht so toll ist find ich totalen schwachinn oO
 
Also ich finde die Karte optisch Top, und ob sie laut ist weiß hier wohl noch niemand. Und bis Nvidia die passende Antwort hat, werde ich mich mit diesem Baby vergnügen.Kann also losgehen von mir aus^^
 
@Whoozy: Ich habe diesen Denkfehler eben nicht, da ich ja sagte dass die sicherlich alles daran setzten um die Performance Krone + DX11 als erstes zu erreichen. Ich sehe keinen großen Architektur veränderungen, es bat sich einfach wegen 40nm die Gelegenheit mal die Shadereinheiten zu verdoppeln, hier und da etwas zu feilen an DX11 anzupassen und fertig ist. Solange die ersten Samples nicht verglühen kann sie ja aufm Markt kommen, hauptsache schnell!! :D Man hätte ja mit 40nm die Fläche der RV770 verkleinern können und die verkleinerte Fläche effizienter nutzen durch optimieren der Architektur. So ergebe sich weniger Stromverbrauch, mehr Leistung. Bei der Denkweise von heutiger Entwicklern ergibt sich, mehr Leistung, mehr Stromverbrauch, doppelte Shadereinheiten dreifache dies und das.. usw. usf.

Ich meine damit nur man kann doch bestimmt technisch besser optimieren und noch effezientere Grakkas bauen ohne an die Grenzen des Kühlers und der Hardware gehen zu müssen. Bestimmt liese sich die Performance auch anders erreichen. Übrigens steht NV auch nicht besser da mit den Monster Chips, allerdings sind die im Vergleich zu der Chipfläche genügsamer.

Ich habe einfach nur eine neue Hoffnung wegen Effiziens und Stromverbrauch gehabt, dachte dass endlich mal wenigstens in 40nm und neue Architektur, völlig neue Generation endlich mal alle Grakkas wenigstens nen Tick sparsamer werden als die alten. Oder mindestens gleich bleiben. Denkste.

Meine 1950pro bei 66W TDP feuert immernoch all meine Spiele bei 1280*x an. Soweit bin ich zufriden da ich keinen HD LCD hier stehen habe. Es zeichnet sich durch die Entwicklung ein immer steigernder Stromverbrauch ab. Wenn ich die HD5870 hole habe ich eine 3 Fache TDP bei der Grakka. So viel verbratet mein Rechner höchstens unter vollast aller Komponennten. Aber ich hole mir noch nen Quad dazu etc. Das wird eine Mikrowelle im Dauerbetrieb :D

Das Problem an der Sache ist ich wollte mir nen neuen Rechner schon seit paar Monaten zulegen und warte nur auf die neuen Grakkas, zu release erscheinen allerdings wie üblich erst die Monstergrakkas. Wann dürfte dann eine HD5770 o.ä. kommen? Eine alte Generation will ich allerdings auch nicht kaufen...
 
Zuletzt bearbeitet:
@gamer.gamer

die bilder sind fakes die sind sogar so billig bearbeitet das ein wiederstand halb abgeschnitten ist auf dem bild...

außerdem würde es sehr viel geld kosten soviele chips auf einer platine unterzubringen.
dadurch wären die grafikkarten unerschwinglich
 
@crystal

Wenn denn die neuen verbreiteten Specs stimmen, liegen die 190W doch im erwartbaren Bereich.

Als Vergleich die 40nm 4770 mit
640 SPUs - 750 Mhz - 75W

Die erwartenten Specs der 40nm 5870
1600 SPUs - 825 Mhz - 190W

Theo. Shader-Leistung um Faktor 2,75 höher, Verbrauch um Faktor 2,5 höher.

Passt.

Gruß
Raubwanze
 
Zuletzt bearbeitet:
Crystal wie ich gesagt habe Low-End, Midrange usw. Du gehörst eindeutig zu den Leuten die eher auf den Verbrauch achten ist ja auch nicht weiter schlimm jeder hat seine anderen Ansprüche. Für dich wäre dann doch so eine Karte wie die 4770 oder 5770 (wenn es die denn geben wird ) das richtige.

Wie ich sagte für jeden ist was dabei. Ich weiss der Vergleich mit den Autos stinkt vielleicht langsam :D aber. Ein Sportwagen verbraucht auch mehr Benzin als ein Mittelklasse Auto. Von irgendwoher muss ja die Leistung kommen.

Also ich würde erstmal sagen abwarten. Falls die HD 5870 eine Leistung bringt wie die GTX295 ist die TDP von 190 Watt doch garnicht so schlecht wenn man bedenkt was die GTX295 verbraucht.

EDIT: Sollte die Karte aber gradeso mit ach und Krach die GTX285 übertrumpfen würde ich sagen die TDP 190 Watt ist ein Witz. Wenn man bedenkt das man den 40 nm Vorteil hat.
 
Zuletzt bearbeitet:
Zurück
Oben