News ATis DirectX-11-Serie wird Radeon HD 5800?

Wenn ihr energie sparen wollt dann ersetzt eure (Glüh)Birnen durch LED Strahler ...
Nur dass meine Glühbirnen keine 150 Watt aus der Dose saugen wenn man das gesamt System anschaut unter last z.B. beim alltäglichem gebraucht, zocken ö.ä. dann kommt es einer Mikrowelle im dauerbetrieb gleich. Corei7 + ne Doppeldecker Karte der Rest ist zu vernachlässigen, die Verbrauchsdaten krass.. Ich würde es ja verstehen wenn es nicht anders ginge, aber ich würde wetten dass man heutzutage mit gut inveestiertem Geld in Stromsparmechanismen und Fertigungstechnologien richtig viel rausholen kann aus jedem "tropfen" strom der fließt.

Dem Rest stimm ich dir zu ZerHaKKeR, wär schon echt geil :D
 
Zuletzt bearbeitet:
Wieso habe ich immer das Gefühl das viele Leute ihre Stromrechnung nicht selber bezahlen?
 
Ja das kann damit zusammenhängen, aber auch nicht immer. Zum Beispiel nicht in meinem Fall um sich zu "outen". Es liegt auch an der Einstellung des jeweiligen. Die Eltern sind in meinem Fall glücklicher :D Und ich habe die erfahrung fürs kommende Leben, noch bevor ich die Stromrechnung das erste mal selbst begleiche.

Abgesehen davon spiele ich generell auf meinem 19" in 1280er da brauch ich kein NV 295er Geschoss.
Doch eine HD 5850 könnte schon sehr sehr interessant werden, oder die 5770...
 
Kasmopaya schrieb:
Wenn es sowas gibt nehm ich den gerne an ;)

Das war kein Kompliment, aber es wundert mich tatsächlich nicht das du das geglaubt hast.

Kasmopaya schrieb:
4870 512, 3870 X2 2x512, auf NV Seite: 8800GTS 320; 8800GTS 512, 9800GTX 512, 9800GTX+ 512, 9800 GX2 2x512, GTX 295 2x896

Und was wollst du mir jetzt damit sagen? Das Nvidia mit der schlechteren Speichervewaltung etwas mehr RAM auf das Stock Design gelötet hat?

Kasmopaya schrieb:
Nicht jeder hat 2x PCIe 2.0 16x und als Ausrede für einen Vram Krüppel echt schwach.

Nicht jeder haut hier deftig auf die kacke, nicht jeder muß 26" und mehr voll befeuern, oder ein haufen Euros mehr bezahlen für wenige Spiele die man an einer Hand abzählt, und nicht selten sowieso nicht (mehr) spielen wird. Aber wer das hat, der hat auch 2x PCIe 2.0 16x.
Doch was soll die Diskussion, du weisst es ja eh besser. Besser als wir alle, und besser als hunderte Entwickler und Ingenieure.

Kasmopaya schrieb:
Wobei man echt noch die neue Architektur abwarten muss, vielleicht kann der Vram tatsächlich gemeinsam genutzt werden?

Ach was, zum abwarten müßt man ja mal die Füße still halten .. immer schön die Welle machen.

Kasmopaya schrieb:
neue Architekturen bilden da die Ausnahme Beispiel-> 8800GTX

die GTX ist eine der wenigen, wenn nicht die einzige Karte die mir auf Anhieb einfällt, die über Jahre wirklich ihr teuer Geld wert gewesen ist. Als die GT da war, war es trotzdem lächerlich für die hier noch 100€ mehr auszugeben.

Kasmopaya schrieb:
Ja eben meine Rede, genau mein Punkt. Egoismus pur. Umwelt interessiert ja nicht. Strom zahlt die Mami und kommt aus der Steckdose, mehr interessiert ja nicht

Jo klar, dein Reden, deswegen forderst du ja auch Karten mit Spezifikationen, die absolut überdimensionierte Anforderungen genügen sollen. So ein geschwätz ...
 
also wenn die Tabelle auf seite 2 stimmt und die 5850 "nur" 189$ kostet ( laut aktuellem kurs genau 132,28€ ) legt man noch 20€ fürn leisen Kühler drauf und schon hab ich meine nächste graka :D
nur mal so ne frage am rande unterstüzt Win7 noch DirectX 10.1? Dann kann ich mir Win7 holen und erstmal mit der 4850 weiter spielen^^
 
Soweit ich weiß, verwendet Windows 7 DirectX 10.1 sogar für seinen Desktop. Sollte also kein Problem sein.

Dollarpreis kann aber so nicht gerechnet werden, alle Erfahrung besagt, dass der Dollarpreis 1:1 in Euro umgerechnet werden kann. Aber auch dann wäre der Preis noch ein echter Knaller - vorausgesetzt Tabelle 2 stimmt. Die 16 Tage kann man jetzt auch noch warten, es wird bestimmt pünktlich einen Test hier auf CB geben.
 
Zuletzt bearbeitet:
ah gut danke
 
Solange sich die HD 58XX Karten in den Disziplinen
Leistung (vor allem mit eingeschaltetem AF und AA),
Preis,
Lautstärke,
Bildqualität,
und
Stromverbrauch
ähnlich gut präsentieren wie die HD 48XX Karten, kann das nur ein Erfolg werden.
Ich bin gespannt.
 
hmm, lustig wie man sich über die 1gb vram auslässt.
also ich habe bei keinem spiel bis jetzt mehr als 670mb vram (arma2) gebraucht in 1920x1080. dabei waren auch immer 16xaf und 4xaa. habe dann auch die gleichen settings an meinem standart tft mit 1280x1024 getestet und es war kein großer unterschied zu sehen. spiele die ich getestet habe waren coh, crysis standard und warhead, arma 1 + 2, dcs:black shark, il-2, fallout3, stalker, gtr2, hdr sume2, sf4, dead space, gta4 und the witcher.
die meisten waren sogar deutlich unter der 512 mb grenze.
wenn es liniar scaliert zu den nächst höheren auflösungen wäre ich sogar mit fullhd th2go noch innerhalb der 1gb. appropro tripplehead2go, einige meiner freunde nutzen es und kommen auf 3840x1024 und haben auch die 700mb vram auslastung nicht überschritten.
da limitierten eher andere sachen.

achja, um so höher die auflösung wird um so niedriger kann das aa eingestellt werden da ja auflösungsbedingt die kanten immer kleiner werden. also mehr als 4xaa brauchte ich auf meinem 40" lcd in 1920x1080 definitiv nicht. der unterschied war nur marginal.

getestet habe ich übrigens mit einer hd4870 1gb oc und ausgelesen über rivatuner während des spielbetriebes über meine g15 angezeigt.

und wer meint sich für +500 € eine karte zu holen, welche in 1-2 jahren schon von einer -200 karte deutlich geschlagen wird den will ich nicht aufhalten. nur sollte er sich keine illusionen machen das er damit 3-4 jahre neuere spiele auf highsettings mit spielbaren frames zocken kann.

jedenfalls bin ich auch sehr gespannt auf die hd 58xx und erhoffe mir das der 3 display support genauso gut funktioniert wie mit einem th2go. dann wird zu einer evtl. hd 5870 noch 2 günstige 19" folgen. habe lieber einen peripheren blick als das ich mir sowas wie 3d visions zum spielen besorge.
 
Zuletzt bearbeitet:
@ rooney723
D ist ein Hochpreismarkt. Die Karten werden zum Release in € ungefähr das gleiche kosten wie in anderen Ländern in US$.
War vor einem Jahr bei den 4850 / 4870 auch schon so.

Ich muss sagen, ich bin auch ein wenig enttäuscht über die Daten auf dem Papier. Das SI mit 256 Bit und 1 GB VRAM scheint zuwenig bei den speicherhungrigen Programmen die allein in letzter Zeit auf den Markt kamen und wenn man mal auch nur eine Graka-Halbwertzeit von nur 1 Jahr zu Grunde legt, sieht die Sache noch trostloser aus! Aber ich denke mal, ATI hält sich die 2 GB VRAM für die Markteinführung der nVidia Karten im 1 Q 2010 auf, um dann auch noch was entgegen zu setzen. Für die ersten 2-4 Monate nach erscheinen der 5850 / 5870 hat ATI ja ein Monopol (bei next Gen) und somit keinen der was besseres liefern kann!

Mit anderen Worten, hohe Preise für vermutlich nicht ausgereifte Produkte - aber warten wir es mal ab. Vielleicht ist die Leistung ja doch so gut, dass man das Produkt akzeptieren kann so wie es ist!?!
 
Nicht jeder hat 2x PCIe 2.0 16x und als Ausrede für einen Vram Krüppel echt schwach. Wobei man echt noch die neue Architektur abwarten muss, vielleicht kann der Vram tatsächlich gemeinsam genutzt werden?
Du weißt aber schon, dass bei einer Multi GPU Karte die auch nur mit x8 angesteuert werden....
Wer sich SLI/Crossfire einbaut, dem sind die paar € mehr für zwei 16x PCIe Steckplätze auch egal und er holt sich so ein Board.

Ganz ehrlich muss da in vielen Punkten milamber zustimmen....
 
Was mich allerdings am meisten interessiert und ich nirgends Infos zu finde, wo werden sich die Grafikkarten vermutlich einordnen?

Wollte mir eigentlich in ein paar Wochen ne GTX285 holen, aber wenn ich sehe dass die ATI DX11-Karten schon GDDR5 (GTX285=GDDR3) benutzen, dann denke ich mir mal dass die neue Serie besser als alles momentan vorhandene sein wird und das zu einem günstigeren Preis... (GTX285 ~270 Euro; DX11 ~200-250 Euro)

Was ist zu erwarten? Wie war das denn bei DX9 auf DX10?

Beste Grüße
Freem
 
DX 9 auf DX 10 war der Sprung von GeForce 7 auf GeForce 8 mit der bekannten brutalen Leistungssteigerung. Ob das allerdings hier genauso der Fall sein wird, steht in den Sternen. Wobei - wenn ich DX 8 auf DX 9 (Radeon 8500 auf Radeon 9700) anschaue, der war auch brutal...

BTW, GDDR5 wird schon auf den Radeon HD4k genutzt... ;)
 
@ Freem:

FALLS die bisher spekulierten Daten korrekt sind sehe ich die 5870 in etwa auf Höhe der aktuellen Dual-GPU Karten wie der 4870 X2 oder GTX 295, noch dazu ohne Multi-GPU Probleme. Die GTX 285 wird sie ziemlich sicher um ein gutes Stück übertreffen, und dementsprechend vermutlich zunächst teurer sein.

Auf GDDR5 vs. GDDR3 solltest Du nicht all zu viel geben, wenn die neuen Karten tatsächlich ein 256 bit Speicherinterface haben, hat die GTX 285 sogar mehr Speicherbandbreite.

Als damals die ersten DX10 Karten erschienen, war die Situation etwas anders, da NVIDIA für lange Zeit die einzigen auf dem Markt hatte, die zudem noch sehr viel schneller als die Vorgängergeneration waren. Diesen Vorteil haben sie sich dann natürlich ordentlich vergolden lassen, die Preise blieben ungewöhnlich lange auf hohem Niveau stabil, da ATI auch mit der HD2000er Serie nichts entgegenzusetzen hatte und die Mittelklassekarten der Geforce 8 Reihe (absichtlich?) vergleichsweise schwach waren.

Grundsätzlich ist AMD nun zunächst auch in dieser Position, allerdings sind die DX11 Karten von NVIDIA wohl auch nicht mehr all zu weit entfernt. Zusätzlich stellt sich die Frage, ob AMD, wie bei den vorausgegangenen Generationen, erst die Topmodelle (sprich 5870 und 5850) vorstellt, oder tatsächlich, wie von einigen Quellen spekuliert, das komplette Lineup für alle Leistungsklassen bringt.

Sollte Letzteres zutreffen, kann man tatsächlich bald mit sehr günstigen DX11 Karten auf dem Niveau der bisherigen Performanceklasse rechnen.
 
Du weißt aber schon, dass bei einer Multi GPU Karte die auch nur mit x8 angesteuert werden....
Also die GTX 295 nicht, das währe ja verrückt die Karten nur wegen der Bandbreite langsamer werden zu lassen. Bei der 4870 X2 wirds wohl auch PCIe 2.0 16x Speed sein?
https://www.computerbase.de/artikel...tx-295.761/seite-2#abschnitt_technische_daten
Damit die GPUs untereinander kommunizieren können, benutzt Nvidia einen nForce-200-Chip, der die ankommenden 16 PCIe-2.0-x16-Lanes auf die beiden Kerne mit der maximalen Bandbreite verteilt. Darüber hinaus sind die PCBs mit einer zur SLI-Bridge vergleichbaren Verbindung ausgestattet.
Wer sich SLI/Crossfire einbaut, dem sind die paar € mehr für zwei 16x PCIe Steckplätze auch egal und er holt sich so ein Board.
Laut den Verkaufszahlen von GTX 295 und HD 4870 X2 glaube ich das nicht. Das single PCB bzw. single Slot Design zieht anscheinend irgendwie magisch an. Habs auch schon öfter erlebt da wird lieber eine Karte genommen als 2 die den gleichen Preis haben. Sogar wenn man ein CF Board hat nehmen einige lieber die X2! Frag mich nicht warum ist einfach so.
hmm, lustig wie man sich über die 1gb vram auslässt.
Die 5870 hat die doppelte Rohleistung wie so eine mid Range Karte ala 4870, da kann man wohl dann 2GB Vram erwarten. Pflicht wird das ganze dann bei der HD 5870 X2, 4 fache Rohleistung einer 4870 und das mit 1GB Vram-> ein Witz
 
Zuletzt bearbeitet:
Ich bin z.B. eine derer, die ein SLI-fähiges Board haben und eine 9800 GX2 einsetzen. :D

Und das mach ich, weil ich die Grafikkarte bedingt durch ihre Länge nicht an dem üblichen oberen Platz einbauen kann sondern ein paar Ebenen tiefer rutschen muss ;)

btw. deine Signatur ist veraltet "Zwinge Microsoft Essen für arme Kinder zu spenden, mach mit" lief bis zum 8. August
 
Zuletzt bearbeitet:
@FortissimoIV und Reaping_Ant
Ich dachte es wurde irgendwo angekündigt dass die neuen Radeon-Karten zwischen 200 und 250 euro kosten werden? Meine es in einem Interview gelesen zu haben...

Wie dem auch sei, es wird doch sicher ein Modell geben welches unter 300 Euro kostet und wenn die tatsächlich auf dem Niveau einer 295 sind dann lohnt sich das warten :)
 
mal schauen, wie sich die 5850 schlägt, die könnte evtl. meine 285er Gtx ersetzen, ist ja immerhin auch schon wieder nen halbes Jahr alt^^
 
Kasmopaya schrieb:
1GB GDDR5 -> Crap! Hoffentlich macht das NV nicht nach, 2GB müssen her!

also ich und meine graka kommen mit 512 mb Ram gut klar :lol:



für die die den witz nicht in meiner Aussage gesehen haben : Das war ein Witz!

Die 5870 X2 (oder auch 5890 X2 ..wer weis) muss ja so extreme Leistung haben... die ist dann nur noch für GPGPU Computing gut oder?

damit könnte man neue (DX11) oder auch aktuelle Spiele auf 4096x2160 Spielen mit 32x AA und 48 x AF .. da benötigt man ja auch einen 74" Monitor .. wahres Gaming-Heimkino wäre das dann :D

aber wenn man Raytracing auf die ganzen Shader Prozessoren optimieren könnte würde da evtl. schon echte "next Gen" Grafik gut abgehn ;)
 
Zuletzt bearbeitet:
Zurück
Oben