News ATi Radeon HD 3850 & HD 3870 im Detail

Ja, der Preis wird vieles entscheiden. Die 8800 GT mag nicht schlecht sein, aber der Preis ist mir einfach zu hoch. Soviel Geld gebe ich nicht für eine Grafikkarte aus. Bei ATI hab ich noch Hoffnung, dass die Karte günstig wird. Immerhin sind weniger Transistoren verbaut und die Fertigungsstruktur ist auch kleiner.
 
@ 40 ehm nö wenn dann kauft Microsoft alle 3 auf was die nie machen würden aber intel lol ..............
 
@Tobi41090
naja durch einen anderen fertigungsprozss ist noch keine karte schneller geworden;)

ich wette das da nicht viel am chip geändert wurde
zumindest die anzahl der sp wurde schon mal nciht verändert

und bei den taktraten wird das einfach keine rakete
die wird wohl in dem bereich einer 2900xt liegen, vll etwas schneller
was ja auch gar nicht so schlecht ist
 
Straputsky schrieb:
Ja, der Preis wird vieles entscheiden. Die 8800 GT mag nicht schlecht sein, aber der Preis ist mir einfach zu hoch. Soviel Geld gebe ich nicht für eine Grafikkarte aus.

Der Preis für die 8800GT ist spott billig! Die übertakteten Karten haben mehr Leistung als die GTX. Glaube auch, dass die Zotac mit den 700mhz Chiptakt die normale Ultra sprengt. Vergleich mal die Preise. Die GT kostet nur fast die Hälfte im Gegensatz zu Ultra

bensen schrieb:
naja durch einen anderen fertigungsprozss ist noch keine karte schneller geworden;)

und bei den taktraten wird das einfach keine rakete
die wird wohl in dem bereich einer 2900xt liegen, vll etwas schneller
was ja auch gar nicht so schlecht ist

Was sagst du denn zu den Taktraten zur 8800GTX? Die Karte ist hammer schnell und hat auch keine hohen Taktraten?
Deine Aussage könnte fast etwas falsch sein.

mfg
Tobi
 
Mit Ati assoziiere ich immer diesen komischen Polygon-Fehler, diese Raum-Dreiecke aus der Matrix die einem mitten ins Gesicht springen und meine Helden völlig entstellen, hat sich da bis heute denn was dran geändert?

Ich fand das früher ein Horror, das war immer so als ob einem von seinem Lieblingsstar die Nase abfällt und sich das Monster offenbart. Mit meiner GeForce 7800 hat ich die Probleme dann kaum noch, ausser mit Tuning-Treibern!

Ich würde ja gerne wieder mal zu Ati wechseln, aber gebranntes Kind scheut halt das Feuer!
 
Hmmm also auf den Bildchen in den News steh noch nichts von DirectX 10.1, zumindest rechts in den Spezifikationen, da steht lediglich DirectX9, 10.0 und OpenGL. Oder braucht man um DirectX 10.1 zu unterstützen lediglich ein DirectX 10 API?
 
Zuletzt bearbeitet:
<Dopex> schrieb:
Weiß man jetzt eigentlich schon mehr von dem R680 Chip bzw HD2950 X2X wie die Grafikkarte ursprünglich heißen sollte.

Mich kotzt das an, dass jetzt auf einmal Grafikkarten rauskommen, die schneller als meine 2900XT sind und auch noch wesentlich günstiger. Das macht den Wert meiner Grafikkarte zunichte. Geht bestimmt ein paar GTX Besitzern auch so.

Ich werde meine Grafikkarte aber jetzt nicht verkaufen um mir ne 3870 oder GT zu holen wegen dem Stück Mehrleistung, da muss schon ein größerer Sprung her.
Deswegen: Wann kommt der R680??? Oder ist das ding mal wieder nur ein Gerücht?

So läuft das eben in der Computerindustrie, man darf sich eben nicht die größte/teuerste Grafikkarte kaufen, wenn man so denkt. Den GTX-Besitzern kanns egal sein, denn die haben momentan zumindest immer noch die schnellste Graka aufm Markt. Wenn du natürlich deine 2900XT erst kürzlich besorgt hast, mein Beileid, in Zukunft halt vorher auf CB informieren.

Der R680 soll im 1.Quartal08 kommen, schon im Januar. Spätestens mit dem RV670 werden die Spekulationen zum R680 zunehmen und auch so langsam erste Details rauskommen.

http://www.vr-zone.com/articles/R680_To_Score_20K_In_3DMark06/5325.html
http://www.vr-zone.com/articles/55nm_R680,_RV660670,_RV635_&_RV620_In_Q4_2007/5044.html
 
Ich bin ja mal gespannt, was das so gibt. Ich suche vor allem ne Karte, die mal optimale AVCHD Beschleunigung hat, um diesen neuen Film-Standard endlich mal ruckelfrei abzuspielen und den Prozessor zu entlasten. Da hoffe ich ja auf ein neues Avivo. Ansonsten würde ich auch ne Nvidia nehmen, aber da tut sich auch nix tolles, außer die passive 8800GT. In den nächsten Monaten hätte ich halt gerne mal ein neues Baby mit Quadcore, das dann alles richtig kann ...
 
@Tobi41090
sorry aber denk einfach mal ein bisschen nach
was soll denn jetzt der G80 damit zu tun haben?

der rv670 wird nicht viel mehr als ein geshrinkter r600 sein
teilweise sind die spezifikationen doch schon durchgeblickt
also kann man an den taktraten schon sehen wo es ungefähr hingeht

wenn du das nicht verstehen willst ist das nicht mein problem
kannst ja weiter an den wunderchip glauben
 
In dem Datenblatt zur HD3870 steht: PCIe X16 (PCIe 2.0).
Hab mich mal im Forum ein wenig schlau gemacht wegen PCIe 2.0. Wenn ich das richtig verstanden habe, dann läuft die Karte auch auf einem Board mit PCIe 1.0 ohne Verluste, oder?
Wäre nett, wenn mir das einer bestätigen könnte, falls es denn stimmt.
 
ja der PCIe 2.0 is völlig abwärtskompatibel zu PCIe 1.0. Da wird es keine Probleme geben.

Der G80 hat eigentlich gar nichts damit zu tun. Habe ihn nur als Beispiel verwendet. Könnte man meinen, dass der Chip auch wenig Leistung hat, weil er geringe MHz hat. Dem ist aber nicht so. Der hat ordentlich Leistung. Weil du vorher gesagt hast, dass das die neuen ATI-Karten nicht der Renner werden kann bei so geringen MHz-Anzahl.

mfg
Tobi
 
xp_home schrieb:
Die Karte unterstützt DX10.1 und SM4.1. Die aktuellen Treiber bieten aber nur DX10.0 und SM 4.0, weil DX10.1 noch gar nicht draußen ist^^

dercoole schrieb:
Hmmm also auf den Bildchen in den News steh noch nichts von DirectX 10.1, zumindest rechts in den Spezifikationen, da steht lediglich DirectX9, 10.0 und OpenGL. Oder braucht man um DirectX 10.1 zu unterstützen lediglich ein DirectX 10 API?

Sag mal, wie oft soll ich die Frage beantworten? Karte DX10.1-Fähig. Treiber nur DX10.0 bis zum Erscheinen von Vista SP1!

Tobi41090 schrieb:
Der G80 hat eigentlich gar nichts damit zu tun. Habe ihn nur als Beispiel verwendet. Könnte man meinen, dass der Chip auch wenig Leistung hat, weil er geringe MHz hat. Dem ist aber nicht so. Der hat ordentlich Leistung. Weil du vorher gesagt hast, dass das die neuen ATI-Karten nicht der Renner werden kann bei so geringen MHz-Anzahl.

mfg
Tobi

Ein schlechtes Beispiel. bensen bezieht sich auf die Architektur des R600 und dann auf die Taktrate. Taktrate+ Architektur ist für die Leistung ausschlaggebend. G80 hat eine ganz andere Architektur.

Mal davon abgesehen, ist der Shadertakt doppelt so hoch wie der restliche Takt beim G80. Von einem geringen Takt beim G80 zu sprechen ist somit auch noch ziemlich unpassend.
 
Zuletzt bearbeitet:
@Tobi41090
wenn man die architektur kennt kann man auch anhand der taktraten sagen wie schnell die ist

kein erwähnenswerter höherer chiptakt als r600 -> nicht viel schneller als r600

weiss net was daran schwer zu verstehen ist:confused_alt:
 
klar schreien hier viele nach neuen Ultra Karten von Ati & nVidia, Fakt ist aber dass mit diesen Karten kaum Geld verdient wird, die Stückzahlen sind einfach viel zu gering und auch einfach nur an Freaks adressiert. Ganz ehrlich, 300€ für eine Grafikkarte, ich weiß nicht wieviele hier ihr Geld selbst verdienen, aber das ist immernoch eine ganze Menge Geld, eigentlich zuviel!
Ich denke es ist genau der richtige Schritt von ATi erstmal preisgünstige Karten herauszubringen die sich viele leisten können und die eine gute Leistung auf Standard Bildschirmen (1280x1024) bringen. Wenns dann wirtschaftlich wieder bergauf geht sind auch wieder Ressourcen für Prestige Karten übrig.
Vor allem finde ich auch den Stromverbrauch der 8800GT mit über 100W noch als zu hoch, ich hoffe die ATi Karten zeigen hier besseres.
 
Jo, 300€ für eine Grafikkarte für den PC empfinde ich auch als zu hoch (obwohl ich Geld nicht selbst verdiene, da ich gerademal ein 17jähriger Gymnasiast bin ;) ). Ich sehe darin auch keinen Sinn. Ich hab nen 19zoll Widescreen Bildschirm, da reicht eine 8800GT locker ein paar Jährchen. Spielen soll Spaß machen und nicht zur Extremsucht werden. Ich muss bisher auf geringsten Grafikeinstellungen spielen, um überhaupt noch Spiele spielen zu können, und das reicht auch und macht Fun.

Ich sag mal so, alles ab 300€ ist übertrieben für Reiche, die nicht wissen, wohin mit ihrem Geld.

Für den Preis einer Ultra kann man sich schon nen neuen PC holen, also total übertrieben. ----- Aber halt alles Ansichtssache!

@ Lhurgoyf

Der Stromverbrauch von ca. 100Watt ist aber immerhin schon weniger als bei der weitaus schwächeren 8800GTS und von daher ist das schon ein Fortschritt. Du musst ja auch bedenken, dass nocht weniger Stromverbrauch eventuell auch mit Leistungseinbußen in Verbindung steht.
Also gucken, welche Karte dann das beste Preis-Leistungs-Verhältnis hat und viel Spaß beim zocken.

MfG paxtn
 
@KAOZNAKE
Hab mich damals schon informiert. Die Karta hat anfangs um die 450 € gekostet. Dann kam dieeese Preissenkung bei der ich sie dann für 300 € bekommen hab. Auf dem Niveau einer GTS für ungefähr den gleichen Preis war ja nicht schlecht.

Dass sie die Refreshchips so günstig raushauen hätte ich gern mal gewusst. Die x1950 war doch bestimmt auch teurer als die x1900.

Vielen Dank für die Information mit dem R680!
Januar... doch noch weng hin... da wirds auch nicht mehr lange bis zum R700 hin sein. Obwohl... Der R600 hat sich auch extrem verspätet.
 
ca. 110 Watt zu hoch:freak:

Das ist zu hoch: klo.jpg

http://www.alternate.de/html/product/details.html?articleId=217945&showTechData=true

Die 8800GT ist für diese Leistungsklasse noch im Rahmen.


Gruß.
 
ATI wird das wohl genauso machen müssen wie AMD, einfach über den Preis.

Wenn sich die technischen Details nicht ändern wird der X3870 ungefähr auf dem Level einer X2900 XT liegen. Und somit hinter einer 8800 GT. Da die günstigste GT 230 € kostet, kann man von einem Preis um die 210 € ausgehen für die X3870. Die X3850 wird wohl nicht bedeutend langsamer sein. Ich sag mal um die 180 €.

Was jetzt natürlich interessant wäre, was bringen:
2 x X3850 im Crossfiremodus und wie hoch wäre deren Strombedarf?

Braucht man für Crossfire eines der neueren Mainboards mit dem neuen AMD Chip, oder reicht ein altes Crossfiremainboard aus?
 
Zurück
Oben