News ATis DirectX-11-Serie wird Radeon HD 5800?

Hört sich ja nach einer sinnvollen Weiterentwicklung der HD4K-Serie an. Nur was damit gemeint war ist mir noch nicht klar. Am Anfang wurde ja spekuliert dass es sich um das "krumme" Speicherinterface handeln könnte, aber jetzt...

Der für mich wichtigste Punkt ist aber der Idle-Verbrauch - hoffentlich bekommen sie den in den Griff.
 
glaube kaum das ati nochmal auf 512bit SI setzt. zumindest nicht in der kommenden generation. das würde den chip viel zu groß machen, rv800 soll ja nich viel größer als rv770 werden. da passt kein 512Bit SI dran.
Nur weil NV beim GT200 auf 512Bit setzen musste weil sie keinen GDDR5 einsetzen, heist das ja nich das Ati das auch muss.
Bei 1100Mhz wären das 4400Mhz übertragunsrate, und jetztige sind bei max.950 bis 1000Mhz, also riesig ist diese Steigerung wirklich nicht, aber die Ingenieure werden sich dabei schon was gedacht haben.
Genauso wie beim Speicher, welcher mit 1GB recht wenig anmutet, werden bald nach launch Karten von Sapphire oder Club3D kommen mit standartmäßig mehr Speicher und Takt.

Aber das eigentlich interessante ist der Chip und nicht das drumherum. Vll bekommen die es ja wirklich hin, bei augenscheinlich kaum erhöhter Bandbreite fast doppelte Leistung zum Vorgänger zu erreichen.
Schließlich wurde bei NV von der GTX8800Ultra zur 9800GTX(+) auch das SI um ein drittel verringert und die Shaderleistung erhöht, was unterm Strich auch mehr Performance gebracht hat. Warum sollte ATI nicht auch diesen weg gehn, vor allem wenn AtI´s offziellen Aussagen nach die HD5k Serie wie auch die HD4k und HD3k auf dem R600 Design beruhn und somit genug Zeit für solche Optimierungen ist/war?
 
Und immer noch keine Infos zur Shaderzahl, AMD hält wirklich gut dicht. Verfügbarkeit erst einen Monat nach dem offiziellen Start ist etwas spät -- und gemein.

Bringt so ne 3d-Karte eigentlich auch was, wenn man einen Flachbildschirm hat? (entschuldigung...)
 
Swissjustme schrieb:
ohje ohje...solangsam überkommt mich das Gefühl, dass der Kauf meiner 4890 ein Fehler war.

Wieso hast du Leistungsprobleme mit der 4890 ? Damit lässt sich doch alles ordentlich spielen.


Außerdem wird die 5890 sicher zum Start nen ordentlichen Preis haben. Da kann man jetzt entspannt ein paar Monate warten bis die Preise fallen.
 
was jammert ihr alle darüber das die single-gpu karte zu lahm ist, die wird nach jetzigem stand wohl 50% mehr shader haben wie der rc770 dazu noch dx11 bzw generell ne überarbeitete architectur. Dann noch höher getakteten speicher bei den top-karten, das reicht euch nicht? Na dann. Wieso muss es im highend bereich ne Single-gpu karte sein? Weil es bisher oft sinn gemacht wegen speicherprobleme? So wer sagt euch das dies bei dieser generation wieder der fall sein muss? Wenn ihr mal den link snaapsnaap angeschaut hättet würdet ihr sehen das es wohl ein neues feature geben wird "dual shader engine" wo zwar noch nicht sicher klar ist was es ist, aber es könnte zumindest das sein was die auf der seite spekulieren:
A new feature in this generation of GPUs will be the 'dual shader engine' though a lot of speculation remains regarding this technology. It's possible that the word defines a new method of sharing graphics memory between the physical GPUs, which would allow multi-GPU setups to be more efficient.

Dazu kommt warscheinlich sogar ein Design mit 3 Kernen raus, das zeigt beides in welche richtung amd gehen will. Hab es schon früher gedacht, und selbst nvidia gibt ja amd in der beziehung recht, das sie den falschen weg gegangen sind. Die kleineren Leistungssteigerungen bei den Singlechips machen nur dann sinn wenn man dann im Highend mehr Gpus zusammenfasst. Also wenn ihr viel Leistung wollt bitte die 2 und 3 kern geschosse ins auge nehmen und nicht von vorne hererin ausschließen ohne benches gesehen zu haben. Hier kaufen doch auch nicht alle nur noch AMD cpus weil Intel mal nen Pentium 4 gebracht hat der absoluter schrott war. (hatte auch mal so nen heizofen was immer mich damals auch geritten hat ^^)

Das 3kern design zeigt wohl auch das die singlekarte unter last relativ genügsam sein wird.

Klar sind alles gerüchte, aber auf diesen gerüchten basierend meinen hier ja schon einige das die karten viel zu schlecht wären weil die single-gpu karten von den specs her nicht soo monströs aussehen.
 
Das 3kern design zeigt wohl auch das die singlekarte unter last relativ genügsam sein wird.

Wie muss denn der RAM für so eine Karte skalieren? Wenn ich richtig informiert bin liegen die den 2x1GB der HD4870X2 auch zwei mal die gleichen Daten. Braucht eine X3 dann den 3-fachen Speicher?
 
Ich hoffe doch inständig, dass zumindest eine HD5870 mit 2GB erscheinen wird. 1GB ist für heutige Verhältnisse noch ausreichend, aber die nächste Generation sollte definitiv 2GB besitzen! Speicherkrüppel sind das nervigste, was man sich vorstellen kann
@Killermucke: Bei einem CF/SLI Gespann wie einer X2/GX2 Karte rechnen beide GPUs unabhängig voneinander, d.h. es zählt nur der Videoram PRO GPU. Bei einer GTX-295 sind das also auch 2x 890MB. Die verfügare Speichergröße pro GPU ist aber nicht 1,8GB, sondern weiterhin nur ca. 900MB. Daher sind SLI/CF Kombinationen immer sehr sehr anfällig für Speicherkrüppel. SLI/CF macht imo erst ab 2GB pro GPU heutzutage Sinn
 
Zuletzt bearbeitet:
spartaner_athen schrieb:
Neee, glaub ich nicht, dass die 58xx heissen werden. Die heissen doch garantiert Radeon 2000, 3000 und 4000.

Maaaan ey. Was sollen solche Titel? Nachdem die letzten drei Serien 28xx, 38xx und 48xx hiessen - WIE soll die neue Serien denn sonst heissen? Fussball Z1000 oder was?

Ich habe mir fast das gleiche gedacht. ^^
 
Was ist jetzt ? 22. Oktober oder 10. September? auf PCGH steht September. Ich habe derzeit keine Grafikkarte, weil meine 4850 abgeschmiert ist. Muss ich noch so lange warten?
 
Was ist jetzt ? 22. Oktober oder 10. September? auf PCGH steht September. Ich habe derzeit keine Grafikkarte, weil meine 4850 abgeschmiert ist. Muss ich noch so lange warten?

Offizielle Vorstellung wohl am 10. September; Verfügbarkeit im Handel vor dem 22. Oktober (und logischerweise nach dem 10. Sept.).

@Killermucke: Bei einem CF/SLI Gespann wie einer X2/GX2 Karte rechnen beide GPUs unabhängig voneinander, d.h. es zählt nur der Videoram PRO GPU.

OK, dann hatte ich das richtig in Erinnerung. Eine mögliche X3 bräuchte dann schon nen ganzen Haufen Speicher, das frisst Strom...
 
DX 11 kommt als wirklicher Nutzen, wenn MS und Nvidia es in den Mark bringen - vorher nicht. Also keine Hektik mit DX11 Hardware.

//Ironie off
 
@killermueke wenn diese "dual shader engine" wirklich das ist was die vermuten könnte es sein, das die karten dann vielleicht alle auf den gleichen ram zugreifen bzw dann wäre dies wohl so, wenn dem so wäre wäre wohl auch microruckler geschichte und man bräuchte nur 1x XXX ram nicht 2x oder gar 3x macht schon sinn weil dieses ja auch ziemliche verschwenung ist. und bei vielen anwendungen limitiert ja eher die gpu(s) als der speicher. Wenn ich da nur an die Mikrigen speicher in Konsolen denke, dann weiß man das speicher nicht alles ist. Speicher ist halt für die auflösungen von texturen relevant (auch wenn das id grad bischen relativiert hat) für effekte z.B. rauch etc brauchts praktisch keinen speicher auch tolle wassereffekte oder feuereffekte könnten mit viel gflops (oder muss ich da eher sagen *mark scores) dargestellt werden. Generell ist hier mit Software wohl deutlich mehr zu erreichen wie mit mehr hardware wenn man sich z.B. mit dem cpu fressensten spiel bis her beschäftigt gtav4 das soweit ich das gehört habe bei texturen nicht gerade glanzleistungen vollbringt. Und daneben sowas wie rage sieht, das diese aufgabe selbst dx9 hardware noch besser löst ;)

Aber fands schon immer wahnsinn den doppelten speicher mitzuliefern nur weil sich die karten den speicher nicht teilen können wenn das amd gefixt hat und damit dann mit 99% sicherheit auch die microruckler in griff bekommen hat + ne fast 100% skalierung erreichen würde, wäre das ein großer schritt und ein durchbruch für multi-gpu grafikkarten. Auch wenn ich früher skeptisch war, bin ich mitlerweile relativ interessiert an der technik. 1. funktioneirt das powerplay (mit der richtigen catalyst version ^^) ja ganz gut verbrauch im idle dann nicht mehr wie ein singlechip da der 2. kern (so gut wie) komplett abgeschaltet wird. Zum anderen kann man so auch mal aufrüsten ohne die alte karte bei ebay zu verticken (im einzelfall). Es wird vorallem kein weg dran vorbeiführen. Gut man könnte die chips halt generell größer machen und immer mehr shader auf einen chip packen, damit würde man auch takt-grenzen umgehen, aber damit steigen ausschussraten und damit der Preis zudem muss man noch zusätzlich low-end und mitrange chips designen. So ist das viel logischer 1 chip für low-end bis midrange mit unterschiedlichen taktraten und ram dann hiehend 2 oder 3 cores. Ja 2 cores wird wohl bei der generation wenn sie das oben beschriebene packen das sein was sich leute holen die bisher in der leistungsklasse von ner 4870 oder 4890 eingekauft haben.

Naja wir werden sehen ;)

@Medic-on-duty dx11 ist doch bei windows 7 dabei oder hab ich das falsch verstanden. Man kann jetzt schon aus bestimmten quellen ne legale version von windows 7 bekommen, aber auch bald im Einzelhandel, also der einzige der noch fehlt ist Nvidia. Und deren Marktdominanz ist mitlerweile auch leicht angekratzt und das quartal wo jetzt amd in führung sein wird wird nvidia sicher auch nciht so gut tun.

Natürlich für all die leute die jetzt halbwegs gute dx10/dx10.1 karten haben kann man sagen das sie noch bischen warten sollen mindestens bis es ein spiel gibt das sie interessiert wo man mit der alten karte ans limit kommt aber gerne mehr hätte.

Aber gibt ja einige die kaufen an weihnachten neue pcs oder kaufen grafikkarten und verschenken die oder schenken die sich selber ^^ oder welche tuckern noch mit uraltgrafikkarten rum oder... daher ist es vielleicht relativ sinnvoll für viele doch recht flott eine zu kaufen. Erste spiele wurden ja auch schon angekündigt.

Wenn die preise vorallem im low-midrange halbwegs aktzeptabel sind gehört der Weihnachtsmarkt bei grafikkarten amd freu mich schon auf die kurse meiner amd-aktien ;)
 
Zuletzt bearbeitet:
Hehe, jetzt hab ich noch ne gewagte Vermutung:

Wie wäre es wenn ATI dennoch 384bit Speicheranbindung verwendet und aus reinen Marketinggründen dennoch 1024mb verbaut um die GTX285 in jeder Hinsicht auszustechen. Bei den Kunden die nicht soooo viel lesen wie die meisten hier würde das sicher eine gewaltige Wirkung zeigen und der Mehrpreis für die ca. 100 sinnlosen MB wäre vermutlich auch nicht so krass. :evillol:
Klar, kann das der größte Blödsinn sein, aber es würde durchaus Sinn machen. Zumal dann nVidia auch noch ein wenig länger von 256bit ausgehen würde ;)

@ MEDIC-on-DUTY
Tja aber die DX11 Unterstützung soll bereits mit dem Start von Win7 kommen und das auch für Windows Vista. Angeblich sollen damit auch gleich ins OS eingebettete Dienste wie "Drag-and-Drop Video Transcoding kommen" wenn man beispielsweise einen Mpeg2 file auf ein bekanntes Gerät (Handys, PDAs, etc) geschoben wird. Mal sehen ob die Jungs in Redmond wirklich schon so weit sind. Wobei erstmal wohl nur WMV gehen wird, falls man sich nich einen Encoder Hersteller ins Boot geholt hat.

@ blackiwid
WOW, wenn der quote wirklich stimmt, dann würde ein Crossfire Gespann dann wirklich den vollen Speicher nutzen können. Krass! Ich hoffe mal, das ist nicht nur auf single Karten mit multi-GPU bezogen.
 
Zuletzt bearbeitet:
Die GTX285 hat 1024MB und 512bit ;)
Und bei 1024 gibts auch keine 384bit.
Die Namen der neuen Karten sind in der Tat wenig überraschend. Aber ich finde die Systematik bei ATI sehr gut, da erkennt auch der Laie auf einen Blick, welche Karte wo einzuordnen ist, und muss nicht irgendwelche kryptischen Kürzel auswendig lernen. Aber das ist bei nVIDIA ja auch besser geworden. Trotzdem bin ich gespannt wie die gute alte 8800er bald heißen wird :D
 
Krautmaster schrieb:
...siehe den PowerPlay 2.0 Reinfall.
;)

Das stimmt so pauschal nicht. Sicherlich hat Powerplay mit dem GDDR5-Speicher Probleme oder umgekehrt.
Aber die Ansteuerung des GDDR3-Speichers und vor allem der GPU funktioniert sehr gut.
Z.B. HD4670 mit 8,3 Watt im Idle und die HD4830 taket auch sehr gut und ohne Probleme auf 160 MHz (GPU) und 250 MHz (RAM) runter.
 
Bin echt gespannt wird Zeit das Mein HD3870 in ihren verdienten Ruhestand kommt :)
 
CoffeeJunkie schrieb:
1. Die GTX285 hat 1024MB und 512bit ;)
2. Bei 1024 gibts auch keine 384bit.

1. Haha, ich Depp :freak: Danke für den Hinweis.
2. Weiß ich doch, drum hab ich ja geschrieben, dass sie dann gar nicht den ganzen Speicher nutzen könnten ;-)
 
Da ich jetzt hier öfters gelesen habe, das der name nicht erwartet wurde: Welcher Name außer 5870 (X2), 5850 und spätere Varianten in Form der 58xx, 57xx und 54xx wäre denn sinnvoll?

In meinen Augen keiner. Diese Namensgebung mit leichten Abwandlungen gibt es seit der HD 1xxx Serie und es wäre Schwachsinn jetzt ein Nv Namenswirrwarr anzufangen.
 
Zurück
Oben