News Kommt ATis RV870 mit 384-Bit-Interface?

@Vladez: Der neuen GPU soll ja 300 wieder groß werden. Und in ein Interview was ich jetzt mal von ATI gesehen habe da hieß es das wir Speicherbandbreite noch nie genug hatten und nie genug haben werden.
 
brabe schrieb:
512bit bedeutet auch eine Platine mit mehreren Schichten. Das bedeutet mehr Zeitaufwand in der Entwicklung und Herstellung => teurer

Wieviel Lagen haben denn Grafikkarten überhaupt?

Selbst für eine in D hergestellte Karte würde das den Preis nur deutlich unter einem EUR erhöhen. Letztendlich ist die Dicke der LP durch den PCI-Steckplatz vorgegeben. Ob ich den nun mit einem Core oder mit Prepregs vollmache ist vom FR4 Material erstmal egal. Hinzu kommen also nur die Differentzkosten von Prepreg zu Core, der mit 2 Kupferschichten daherkommt.

Vom Entwickeln, also dem Routen ist das nicht so wild. Wenn die Verbindungen im CAD Programm erst einmal bekannt sind macht den Rest der Autorouter. Design kostet ja nur einmal, wird dann aber millionenfach verkauft. Ich denke das ist anteilig dann verschwindend gering. Sonst wären eigene Designs auch gar nicht denkbar.

Preislich wirklich etwas bringen wird nur ein Wechsel von 2 PCB auf ein PCB wie bei der GTX 295.
(PCB = Printed Circuit Board = Leiterplatte = umgangssprachlich Platine)
.
 
wenns so verschwindend gering wäre, dann würden die heutigen karten mit 4096bit ddr1 betrieben werden ;)
die kosten für mehrlagige pcb sind also offensichtlich deutlich höher als du glaubst. wenns unter einem euro wäre, wäre ati bekloppt gewesen auf den teuren gddr5 zu setzen, zumal sie ja als erstes von den beiden ein 512bit-layout am markt hatten (x2900). matrox war übrigends insgesamt der erste mit einer 512bit-karte soweit ich weis. aber damals spielte geld für die matro-profikarten auch nur eine untergeordnete rolle.
 
brabe schrieb:
Das liegt daran, dass man als Programmierer nicht noch mehr Schalter und Variablen einbauen möchte. 256, 512 und 1024 MB Ram reichte halt. Nun kommen noch 2GB Karten dazu.

Meinst Du das jetzt ironisch oder ernst :confused_alt:

Da müßt die Software ja dann auch noch auflösungsabhängig per Schalter/Variablen angesteuert weren ;)

Das ganze managed doch der Treiber. Die Karte ist duch PCIe angebunden. Texturen die nicht mehr in den Speicher passen können ausgelagert werden. Das macht aber der Treiber, nicht etwa die Anwendung, in unserem Fall aslo das Spiel ;)
 
@Lübke: Wenn nicht so gar mehr, den DD1 ist ja an sich günstiger herzustellen und in kleiner Fläche.
 
@feris
Naja, der Grafikspeicher wird ja nicht immer optimal ausgenutzt. Das wollte ich damit sagen. Man kann im Spiel einstellen, ob man Hoch, Mittel oder Niedrige Texturen haben möchte. Damit wird dann meistens auch der Speicherbedarf mit abgedeckt. So sollte die Aussage zu verstehen sein. Es gibt kaum Spiele (zumindest mir sind kaum welche bekannt), die von 1GB Karten profitieren. Und ich meine damit keine AA oder AF Einstellungen.
 
Lübke schrieb:
wenns so verschwindend gering wäre, dann würden die heutigen karten mit 4096bit ddr1 betrieben werden ;)
die kosten für mehrlagige pcb sind also offensichtlich deutlich höher als du glaubst. wenns unter einem euro wäre, wäre ati bekloppt gewesen auf den teuren gddr5 zu setzen, zumal sie ja als erstes von den beiden ein 512bit-layout am markt hatten (x2900). matrox war übrigends insgesamt der erste mit einer 512bit-karte soweit ich weis. aber damals spielte geld für die matro-profikarten auch nur eine untergeordnete rolle.

Bezüglich PCB kann ich da nicht mitgehen. In Europa bezahlt man für 18" x 24" (also 460 x 610 mm) unter 4 EUR für Basismaterial, welches für Automobilsbau etc freigegeben ist. Ob Grafikkarten jetzt mehr unter weiße Ware fallen weiß ich nicht, würde den Preis aber noch weiter drücken.

Die 4 EUR für das Fertigungspanel mußt Du noch um ca 1-1.5 EUR reduzieren, da Du ja jetzt einen Core statt Prepregs nutzt. (Prweis für die Prepregs abziehen) Wohl gemerkt sind das Preise für Basismaterial für einen Mittelständler. Riesige asiatische Fertiger werden sicher deutlich weniger bezahlen.

In der Presse liegt das ganze auch nur 1 x bei der Multilayerherstellung. Jetzt geben wir dem Hersteller nochmal ein paar Cent pro PCB, da er ja 4 statt 2 Lagen beim Bohren treffen muß und die Innlage zusätzlich beschichten, belichten und ätzen muß. Der Rest der Herstellung ist wieder gleich zum 4 Lagen ML.

Je mehr Lagen der ML hat desto weniger wirkt sich eine Lage aus.

Richtig geraten - ich kenne mich ein bißchen auf dem Gebiet aus :D
.
 
Naja, die Frage bleibt halt, wenn eine 4850 für 100€ bei mir landet, dann darf die wohl in der Herstellung nicht viel mehr als ???€ kosten? Dann bleibt halt noch die Frage, ob 1€ mehr oder weniger für 256 oder 512bit der Unterschied entscheidend ist.

Warum gibt es immernoch Karten mit 64bit, wenn 256bit nicht so viel mehr kostet?
 
brabe schrieb:
@feris
Naja, der Grafikspeicher wird ja nicht immer optimal ausgenutzt. Das wollte ich damit sagen. Man kann im Spiel einstellen, ob man Hoch, Mittel oder Niedrige Texturen haben möchte. Damit wird dann meistens auch der Speicherbedarf mit abgedeckt. So sollte die Aussage zu verstehen sein. Es gibt kaum Spiele (zumindest mir sind kaum welche bekannt), die von 1GB Karten profitieren. Und ich meine damit keine AA oder AF Einstellungen.

Ok, so klingt das dann schon anders. War im ersten Post völlig falsch rübergekommen.
1 GB wird aber wieder diejenigen auf den Plan rufen die in Full-HD spielen.
Für Otto-Normal-Gamer sind 1 GB in der Tat selten nötig. Wobei NVidia von der Architektur her immer etwas mehr Speicher verbraucht als ATI. Aber das ist ein anderes Thema.
Ergänzung ()

brabe schrieb:
Naja, die Frage bleibt halt, wenn eine 4850 für 100€ bei mir landet, dann darf die wohl in der Herstellung nicht viel mehr als ???€ kosten? Dann bleibt halt noch die Frage, ob 1€ mehr oder weniger für 256 oder 512bit der Unterschied entscheidend ist.

Warum gibt es immernoch Karten mit 64bit, wenn 256bit nicht so viel mehr kostet?

Ganz einfach: Der preis rühert nicht unbedingt vom PCB her. Nicht anderes wollte ich damit sagen. :)

Wobei der Preis der Karte natürlich nicht nur aus PCB besteht. Da kommt dann eins zum anderen. Bei einer 40 EUR Karte ist 1 EUR sicher schon ein gewichtiger Posten, besonder wenn es nur das PCB betrifft. Denn der Rest wird ja auch teurer (die gesamte Bestückung auf dem PCB). Allerdings gebe ich Dir da den Dieter Nuhr: "Wenn ich keine Ahnung habe einfacgh mal die .... halten":-)

Letztendlich wollte ich nur mal korrigieren das das PCB bei einer LAge nicht DER Kostentreiber bei eine Grafikkarte >100 EUR ist. Das wird immer gen geschrieben, allerdings von Leuten die keine Kenntnisse vom PCB Markt haben. Leider gehören dazu auch eine Menge Redakteure. Von den Lesern wird es dann so aufgenommen und weitergetragen und so festigt sich dann eine falsche Aussage. Da mir das immer beim Lesen aufstößt habe ich Dich als "Opfer" genommen und darauf geantwortet. Nix für ungut, mir ging es nur um die Sache.
 
Es gibt kaum Spiele (zumindest mir sind kaum welche bekannt), die von 1GB Karten profitieren. Und ich meine damit keine AA oder AF Einstellungen.
Crysis, FC2, Clear Sky, GTA 4, Fallout 3, ArmA 2 ;)
 
@y33H@
Von den Spielen wäre für mich gerade mal Fallout 3 interessant.
Anscheinend sind die 1GB Karten aber erst seit 1 Jahr interessant. Oblivion hat ja auch einen Mod für 1GB Karten.

So langsam verdichten sich die Meldungen. Scheint, als komme die Karte bald
 
Kasmopaya schrieb:
Pre-Launch = Paperlaunch

4870/4890 sind hoch moderne Stromschleudern, so gehts einfach nicht mehr weiter, koste es was es wolle.

Seit wann verzapfst du eigentlich nur noch Müll? Eine vorgezogene Produktvorstellung ist noch lange kein Paperlaunch, wenn man dort zu einem bestimmten Zeitpunkt (von mir aus 2 Wochen später) Produkte ankündigt, die dann eben auch 2 Wochen später erhältkich sind. Und nein, die 4770 war auch kein Paperlaunch.

Genauso ein Quark mit dem Stromverbrauch, die Karten liegen absolut auf Augenhöhe mit der Konkurrenz, jedenfalls da, wo es drauf ankommt: Beim Zocken. Wegen 10 oder 20W hin oder her brauchst du da auch nicht diskutieren und wer Strom sparen will, sollte mal raus an die frische Luft gehen.

Und zu dem Thema mit der 88GTX: Ich wusste gar nicht, das NVIDIA ein Monopol auf ein 384bit SI hat. Was soll dieser unsinnige Vergleich?

johnieboy schrieb:
384 bit möglicherweise nur für die X2 Karten... :(

Das macht wenig Sinn finde ich, denn die 4870 X2 hat genauso ein großes SI, wie die 4870. Da wird sich auch bei der neuen Generation nix dran ändern.

Ansonst kann ich mir vorstellen, das die "5850" nur mit 256bit SI kommt, das wäre eine ähnliche Abgrenzung wie bei der 4850/4870 mit GDDR3/GDDR5.
 
Das ganze heißt Energie und nicht Strom. Merkt es euch mal bitte. Ach wenn es bei dem Wörtchen Stromverbrauch 2mio Google Einträge gibt, was bitte soll das sein? Wohin verschwindet der Strom?

Und ja, 20 Watt weniger sind nicht die Welt, aber bei ca 1mrd technischen Geräten die weltweit mindestens gleichzeitig an sind ist das eine Menge.

Wenn man sich die neuen Intel CPU´s ansieht in 45nm oder gar 32nm mit 0,7V, dann freue ich mich auch darauf, dass die 40nm ATI Karten hoffentlich auch wieder unter 100Watt TDP haben
 
Speicher-Interface größe ist extrem wichtig für die Geschwindigkeit darüber sind wir uns einig warum also wird nur so zaghaft bzg gar nicht erhöht.

Das ist ja nur ein Parameter der geändert werden muss. Speicher-Interface:=512;
das kann doch nicht so schwer sein, jeder halbwegs lebendige hartz-iv programmier in dresden kann das.
 
Du kannst aber genauso wenig Energieverbrauch sagen, weil man Energie auch nur umwandeln kann. Strom kommt nunmal aus der Steckdose, er wird gebraucht um die elektrischen Verbraucher zu versorgen, also wird daraus umgangssprachlich der Stromverbrauch. ;) Wie kann man sich nur über sowas aufregen? :confused_alt:

Die 100W TDP kannste auch knicken, jedenfalls für alles über der Mainstreamkarte ("5670"). Siehst ja an der 4770, wo man ungefähr landet, und die neue 4850 wird sicher nicht weniger Performance haben, als die alte (wie die 4770, die ja bei gleicher Geschwindigkeit wie die 4850 trotzdem schon bei 75W liegt).

Nochmal wegen dem SI: 192 für die "5870" Cypress ist mal definitv zu wenig. Das hieße bei schnellerem Speicher identische Speicherbandbreite. Das dürfte definitiv die Rechenleistung einbremsen. Die 384bit für die X2 kommen dann von 2x192bit, vermutlich hat der Kollege da was durcheinander geworfen. So kann man das ja nicht rechnen.

@Makus: Nein, auf die Speicherbandbreite kommt es an! Speichertakt*Anbindungsbreite= Speicherbandbreite. Davon ist für eine bestimmte GPU mit soundsoviel Rechenleistung auch nur ein bestimmtes Maß notwendig.
 
jedenfalls da, wo es drauf ankommt: Beim Zocken.
Die meisten Systeme - ja auch die an denen gezockt wird - ideln öfters als das an ihnen gezockt wird. Und das ist die Leistungsaufnahme einer HD4770 einfach zu viel - der MC schluckt halt.
das kann doch nicht so schwer sein, jeder halbwegs lebendige hartz-iv programmier in dresden kann das.
Ein SI wird nicht "programmiert".
 
brabe schrieb:
OT: Naja ganz so stimmt das ja nicht. Weil es sich ja hierbei rein um elektrische Energie handelt kann man durchaus Strom sagen. Denn nach Ohm ist R=U/I und die abfallende Leistung P=R*I², da Spannung und Widerstand ja (näherungsweise) Konstant sind und P*t=W also die Arbeit ist, kann man schon von Stromverbrauch sprechen. Allerdings sollte man den wenn dann in Ampere angeben :watt:
Und mit dem Strom passiert nix, aber Spannung fällt ab o.0 bzw besser gesagt der Strom (also elektrische Energie) wird in Wärme umgesetzt. und n bisschen in Rechenleistung ;D Aber das is (wie man an den Temps von der 4870 sieht) eher der kleinere Teil :volllol:

b2t
ich denke 384 bit sollte reichen, AMD Karten sollen ja auch weiterhin Preis/Leistung bieten. Interessant wäre tatsächlich nur, ob der GDDR 5 sich jetzt endlich runtertakten lässt. Wobei da ja sowieso die Frage ist, warum Nvidia, sollten sie denn auch auf GDDR 5 setzen, das denn besser hinbekommen sollte als ATI, wenn es tatsächlich n Problem mit dem Speicher gibt. Gut es gibt genügend User die den Ram per Hand runtergeschraubt haben, hoffen wir, dass ATI diesbezüglich nachlegt.
Immerhin ein gutes Zeichen, dass es so aussieht, als ob wir im Verlauf des Septembers schon die ersten Tests anschauen können :) passiert mal wieder was auf dem Hardwaremarkt =)
 
Zuletzt bearbeitet von einem Moderator:
brabe schrieb:
Was soll denn das für ne Energieform sein, das Produkt der Rechenleistung? :freak:
Die aufgenommene elektr. Energie wird zu 100% als Wärme abgegeben.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben