News ATis RV770-GPU doch mit 512-Bit-Interface?

naja Fudzilla lag in letzter Zeit sehr oft richtig mit seinen Vermutungen/Gerüchten/sonst was oder wie mans halt nennen will... Ich besuch die seite mittlerweile sogar ein bisschen öfters...
Ich stelle jetzt mal die Behauptung in den Raum das ca. 80% (wenn nicht sogar mehr) der in letzter Zeit von Fudzilla veröffentlichten News zutreffen.

Wobei ich das mit den 512bit auch irgendwie nicht glauben kann, jedenfalls nicht im Zusammenhang mit DDR5...
entweder ddr5 oder 512bit, so sehe ich das... beides zusammen wie gesagt relativ unwarscheinlich
 
Teuer ist dann auch nicht die GPU, die durch das große Interface nur ein paar mehr Transistoren braucht, sondern das PCB und die höhere Anzahl an Speicherchips treiben den Preis in die Höhe.
 
Wäre es ja eben nicht. Wenn die Leistung verpufft, weil sie nicht genutzt werden kann, bringt das mal gar nichts. FaZe schrieb dazu: "Dein Ventil kannst soweit aufdrehen wie du willst, die Pumpenleistung kannst du damit nicht erhöhen. Wenn du n 3meter dicken Schlauch an dein Wasserhahn ranhängst kommt hinten trotzdem nur ein Rinnsaal Wasser raus." Das trifft es doch ganz gut. Speicherbandbreite ist doch jetzt schon kein Problem bei den ATi Karten. Das wären dann rund 300 GB/s Bandbreite (Ok, eigentlich "nur" 230GB/s). Was muss das für eine Karte sein, wenn sie es auch nur ansatzweise ausnutzen will.

Ich weis nicht, ich kanns mir nicht vorstellen. Ich mag mich irren, aber ich halte ein 512bit SI für extrem unwahrscheinlich.
 
Zuletzt bearbeitet:
hmm ich denke wenn ati eine grafikkarte mit 512bit rausbringt wird das die karte sein mit 2 gpu chips
das wäre dann eher wahrscheinlich wie eine single karte un würde mehr sinn ergeben
aber vll is ja was ungrades dabei wie 3XX wie bei nivdia
lang is es ja nichmehr hin ma überraschen lassen würd ich ma sagen :P
 
512Bit SI und GDDR5 ist eine gute Konbination aber dennoch würde ich mich persönlich mehr auf eine Multi-GPU freuen (kein CF!) als auf ein hohes SI !
Es sind viel zu wenig Leute da die Auflösungen von/und oberhalb 1920 X 1200 betreiben und somit (viel) von einem 512 Bit SI profitieren können.
Da aber nV und ATI immernoch auf Single-Core setzen würde ich sagen, dass es wohl schwieriger ist eine (funktionsfähige) Multi-Core GPU zu entwerfen als eine CPU.

Gruß
 
Nun, vielleicht ist es nur ein aufgebohrter RV670. Andererseits...

Was ist aus den Gerüchten um das Multi-Chip-Design geworden? Wenn wir hier ja ohnehin schon Gerüchte wälzen...

Sagen wir: Ein Chip mit 128bit SI für Low Cost, zwei für Mainstream, drei für Performance, vier für High-End... damit hätte man 512bit halbwegs logisch erklärt.

Alles Glaskugelei, aber mehr haben wir halt noch nicht.
 
Richtig

Sehe auch nur Probleme mit einem 512 SI, vorallem der hohe Stromverbrauch gegenüber winzigen Leistungssteigerungen sprechen für sich. Mit einem 512 SI würden wieder neue Verbrauchsrekorde geknackt werden. Der Mittelweg von 384bit und GDDR3(GDDR 5 ist noch teuer und bringt nicht viel mehr FPS) ist immer noch optimal in Relation Watt/Performance/Preis. Beim Speicherausbau wirds dann aber wieder krumm 768MB->1536MB, aber man kann nicht alles haben...
 
wenn 512 kommen sollten schätze ich ma das der preis trotz dessen stimmt bei ati waren die eig. immer recht gut
 
Zuletzt bearbeitet:
Und dawir alle Chipdesigner sind, können wir aus erfahrungen sagen, was kommt und was nicht?
Gerüchte sind Gerüchte, Fudzilla lag in letzter Zeit oft richtig. Und wer von euch hier bitte hat in Elektrotechnik - Mirkoprozessorentechnik ein Diplom? Wer von euch arbeitet bei AMD oder ATI?
Also abwarten, Tee trinken und warten. Obs jetzt hat oder nicht werden wie sowie so erst wissen wenn sie da ist. Wenns da ist, wärs toll, wenn nicht würds mich auch nicht überraschen.
 
Wenn die achso tollen Entwickler es nicht langsam mal raffen, das sie langsam aber sicher zu 512 bit wechseln müssen dann weiß ich auch nich mehr, ich kaufe mir keine neue karte solange sie nich mehr als 384 bit hat
 
ich habe immernoch meine alte Radeon 9800 Pro und die konnte extrem lange durch das 256bit breite Bit-Interface mit vielen stärkeren Karten mithalten. Wenn es eine Karte von ATI mit 512bit geben wird werde ich die mir bestimmt früher oder später kaufen
 
Weils einfach SPAM ist und der wird halt negativ bewertet.

Wie denn sonst, soll man über Spekulationen urteilen, wenn es keine handfesten Infos gibt. Dann lieber gar keine News?

Zudem stimmt es doch, was CB da anführt. Ihre Gegendarstellung mit Bezug auf die aktuelle Architektur zeigt doch, dass die Bandbreite jetzt schon kein Problem ist und es daher unwahrscheinlich erscheint, dass man eine mehr als ausreichende Bandbreite noch mal erhöhen will. Dazu wird die Karte dann noch wärmer, verbraucht mehr Strom und wird teurer. Wozu dieser Aufwand, wenn es höchstwahrscheinlich nichts bringt!?

Unyu schrieb: "So ein großes SI hat den Vorteil auf billigen GDDR3 setzen zu können (der auch garantiert verfügbar ist) und trotzdem mehr als genug Bandbreite zu haben." Das wäre eine Möglichkeit, würde unterm Strich aber für noch mehr Energieverbrauch sorgen (GDDR3 braucht mehr Spannung als GDDR5) und die Kosten würden dadurch auch nicht gesenkt werden. Dazu fressen das 512bit SI und das PCB zuviele Kosten, als man diese durch GDDR3 wieder rausholen könnte.
 
Zuletzt bearbeitet:
naja, dein Ergebnis ist zwar richtig aber die Formel falsch^^
richtig wäre
1800MHz*512Bit*2/8 = 230GByte/s ;)

vorrausgesetz es sing 1800MHz Takt
 
Das Speicherinterfaces von 512bit würde aber garantiert durch ein aufwendigeres Platinenlayout teurer kommen als der Einsatz von GDDR5 RAM
 
Nachher bringen sie wirklich das 512 bit Speicherinterface und alle sind glücklich,
aber nachher heulen wieder alle weil die Karten so teuer sind.

Wenn wirklich GDDR5 Ram eingesetzt wird reicht doch ein 256bit SI locker aus.

Laut dem englischen und dem deutschen Wiki wäre das bei den Hynix-Bausteinen
bei 256bit schon eine Bandbreite von 160GB/s.

Entsprechend bei 512bit 320 GB/s.

Die 8800Ultra hatte grade mal eine Speicherbandbreite von knapp 100 GB/s und
liegt mit diesem Wert immernoch ungeschlagen an der Spitze.
 
aaahja.. und wer / was soll das sein?
und soll man dir jetzt glauben?
 
Naja, "werbetechnisch" wird auch meine 9800GX2 mit "512bit" beworben, was nur zur Hälfte gelogen ist. Tatsächlich profitiert ein System aus zwei Karten von der "doppelt vorhandenen" Speicherbandbreite.
"Werbetechnisch", und damit meine ich ,wenn noobs darauf reinfallen, hat also auch Nvidia eine "512bit"-Lösung im Köcher...
 
Kann man sich nur anschließen - auf dem papier sieht es natürlich extrem gut aus mit 512bit + gddr5 aber um das auszulasten müssten auch mindestens 1GB vram und ein wahres monster an gpu vorhanden sein das alles bisher dagewesene um ein vielfaches übertrifft.
Klingt für mich 1. unrealistisch und 2. zu teuer in der herstellung

also entweder 512bit + gddr3 oder 256 + gddr5 aber wohl kaum beides.
 
Der GT200 wird zwar vermutlich 512 Bit haben, allerdings setzt Nvidia nur auf GDDR3-Speicher. Da machen dann auch 512 Bit Sinn.
GDDR5 und 512 Bit ist mehr oder weniger nutzlos und treibt nur den Preis für nichts und wieder nichts in die Höhe.
 
das mit den 512 Bit in fünf jahren nicht mal mehr für Low-End-Karten ausreichen glaube ich bei weitem nicht.
wenn man mal beobachtet, das ganz früher 64Bit SI mal der hammer war und es heute, nach (ich möchte meinen) 13 Jahren immernoch in Low-End-Karten gebraucht wird, ist das ein ziemlich langer zeitraum. ich weis niht genau, welche die erste generation mit 64 bit SI war, aber das ist ziemlich lange her.
ich denke das 512Bit noch wesentlich länger benutzt werden, weil man die bandbreite in den kommenden jahren auch noch nicht auslasten kann.
 
Zurück
Oben