News Force3D stellte ATi Radeon HD 4870 vor

ganz genau! Nur steht da drin nix von frequency - da steht throughput! Genau gelesen hab ich. Zwei Links macht doppelte Bandbreite und doppelte Datenrate aber mit einer höheren Taktfrequenz hat das nichts zu tun...

Dass die 3,6Gb/s stimmen bestreite ich nicht. Die 3,6Ghz aber sind falsch ;) Die ATI-Tabelle in der News gibt das auch richtig an, auch wenn bei Frequency eine Datenrate steht und keine Frequenz. Vermutlich Marketing? Oder simpler Fehler?

Ich weiß ja, dass das für manche Haarspalterei sein mag aber ich denk mir es sollte wenn schon korrekt in der News stehen.
 
Nur mal so: Dort ist sie schon eingetragen, jedoch noch nicht lieferbar. Für 239.00 €.

Specification Model GV-R487-512H-B
Tiptop Name R4875HB
GPU Radeon HD 4870
Core Clock (MHz) 750MHz
Shader Clock (MHz) N/A
Mem Clock (MHz) 1800MHz
Mem Size (MB) 512MB
Mem Bus (bit) 256bit
Card Interface PCIE EXPRESS X16(PCI Express 2.0)
Board Form ATX
PCB Size 241*111.15mm
Direct X 10.1
Pixel Pipeline N/A
Stream Processor 800
Mem Type DDR5 16Mx32
Mem Package uBGA
Memory(pcs) 8
D-SUB Yes(by adapter)
TV-OUT S/AV
DVI 2*DVI-I
HDMI Yes(by adapter)
HDCP Yes
Fan/Heat Sink ATI Fansink
Tools N/A
Display
Matrix CRT+TV Yes
CRT+DVI Yes
DVI+TV Yes
DVI+TV+CRT No
 
du kannst ja die diskussion im pcgh forum durchlesen, dort wird auch über genau das thema geredet.

vielleicht mal die letzten 2 quotes:

EckiSM schrieb:
Dann erkläre mir bitte warum bei 2,5 GHz GDDR 5 Speicher mit 256 Daten- leitungen schon 160GB/s zur verfügung stehen!
Mit 3,6 GHz wären es ja dann genau: 230 GB/s!
Mit 1,8 GHz wären es übrigens richtigerweise: 115,2 GB/s!

LordRevan1991 schrieb:
Nein, sie sind falsch, du hast dich nämlich verrechnet.

2,5Ghz x 256 bit / 8 = 80 GB/s
3,6 Ghz x 256 bit / 8 = 115,2 GB/s

was nun richtig ist, darüber können wir ja weiter hier diskutieren. ;)
 
L233 schrieb:
Ich weiss ja nicht, welche Benchmarks Du gelesen hast, aber der Vorsprung der GTX 280 zur 4850 geht im Schnitt eher gegen 50%, in manchen Spielen massiv mehr.

hier auf cb, 1600*1200 mit 8xAA. 280gtx nur 32% schneller.

höhere auflösungen fehlen ja leider.

nimmt man das werbespiel lost planet sowie den bug G3 raus, dann siehts für die 280gtx noch schlechter aus.


bei der häufig eingesetzten UT3 engine und Konsolenspielen (z.b. AC und Oblivion) kann sich die 280gtx nichtmal von der 4850 absetzen.

in hoher auflösung/AA, liegt teilweise sogar letztere vorne, weil nvidias Flagschiff regelrecht einbricht trotz 1gb speicher, z.b. bei jericho sehr schön zu sehen.


klar, auf nem 19 zöller tft ist die 280gtx deutlich schneller, aber welchen 280gtx Käufer interessiert das ?
500€ Graka für Mäusekino ?
 
Unyu schrieb:
Deshalb kannst du die 50% nicht wiederlegen.

hm? was ist wahrscheinlicher, dass die eine grafikkarte, die bei ansteigenden anforderungen gegenüber einer anderen grafikkarte, bei extrem hohen anforderungen, mehr abbaut und auf einmal, sobald "mond-anforderungen" verlangt werden, eine kehrtwendung macht, und nebst einen gang höher schalten, turbo aktivieren und lachgas einspritzung anwerfen?
oder einfach im direkt vergleich weiterhin einen grösseren leistungseinbruch verbuchen kann, als die andere?


aber davon mal ab... haltet doch mal die füsse still. morgen um 15 uhr (hoffe ich mal *g*) ist hier bei cb bescherung. der gabentisch wird im hinterzimmer schon gedeckt und wir wissen dann alle mehr
und zwar aus einer bekannten und geschätzten quelle, die in den letzten jahren immer gute bis sehr gute tests gemacht hat *bei cb einschleim* ;)
 
Die "steigenden Anforderungen" sind in dem Fall 8xMSAA und nichts Anderes. Ist seit 2 Jahren bekannt, das das nicht gut läuft.
Höhere Auflösungen oder andere (auch höhere) AA-Modi sind davon nicht betroffen.

Schade, das das Maximum im Test nur eine olle 1600er Auflösung mit lediglich 8xMSAA war.
 
Langt auch ein Opteron 185 für die graka?
 
claW3581 schrieb:
und 2 mal 2 macht 4. das nächste mal solltest du, in dem von dir eh schon richtigen artikel, genau nachlesen. ;)

Ähm?

Da wird aber kein Takt erhöht.
Die Übertragungsrate ist höher, aber nicht der Takt.

Es ist also definitiv falsch wenn man von 3,6 Ghz spricht, da nicht dort mit dieser Geschwindigkeit taktet.

Beispiel:
Ein Transporter hat eine Zuladung von 1000kg. Er fährt mit 100km/h. Er kann pro Stunde also 1000kg über eine Strecke von 100km transportieren.
Ein anderer Transporter hat eine Zuladung von 2000kg. Auch dieser fährt 100km/h. Er transportiert also 2000kg pro Stunde über eine Strecke von 100km.

Du willst also behaupten der zweite Transporter sei eigentlich 200km/h schnell weil er doppelt so viel wie der erste transportiert?
 
Also ich bin ehrlich gesagt ein wenig enttäuscht.
Ich hab bis zum schluss auf einen CHiptakt von 850 Mhz gehofft.
:(
Mit der Leistung der 280 zu konkurieren fällt jetzt realistisch gesehen flach.
Aber naja, haut ja immer noch rein, das Preis - Leistungsverhälnis machts wett :D
 
Aber das mit dem Takt hat sich doch eingebürgert. Es regt sich ja auch keiner über DDR2 800 auf obwohl die auch nur mit 200 Mhz laufen.
 
ZeT schrieb:
Aber das mit dem Takt hat sich doch eingebürgert. Es regt sich ja auch keiner über DDR2 800 auf obwohl die auch nur mit 200 Mhz laufen.

Es ist dort auch schon nicht richtig gewesen.

Wenn es um Vergleiche geht sollte man die Übertragungsrate nehmen.

Bei NV wird ja auch nicht der Takt verdoppelt nur weil sie durch 512bit statt 256bit auch doppelt so viel pro Takt übertragen?

Wir sehen hier jeweils eine Verdoppelung der Übertragung. Ein Mal durch Verbreiterung (NV) und ein Mal durch Verdoppelung der Daten pro Takt(Ati).

Ein Mal wird das dann in einen effektiven(??) Takt umgerechnet und ein Mal nicht?

Das mag manchmal zur Veranschaung einfacher sein, aber langfristig wird es Probleme bereiten und ist eben falsch.

Ich denke deshalb das kann im Forum als Analogie genommen werden, sollte aber nicht in technischen Beschreibungen in Artikeln auftauchen.
 
Wobei man dazu sagen muss dass das ATI Präsentationsblatt auch schon leicht wackelig dasteht, wenn bei Frequency das eine mal wirkliche eine Frequenz (Mhz) und das andere mal eine Bandbreite (Gb/s) angegeben wird...marketing vermutlich ;)
 
Kunibert_KA schrieb:
Es ist also definitiv falsch wenn man von 3,6 Ghz spricht, da nicht dort mit dieser Geschwindigkeit taktet.
Das hat sich aber nun mal so eingebürgert, auch wenn es sachlich nicht ganz astrein ist. Sofern niemand von 3,6 GHz Realtakt spricht, ist das vollkommen iO. Der Effekt bleibt der gleiche, deshalb spricht man idR auch vom effektiven Takt.
 
Ich kenne mich mit den Feinheiten von DDR nun wirklich nicht gut aus, aber so wie ich das sehe löst GDDR5 die Sache indem zwei Datenlinks verwendet werden statt nur eines Links (wie bisher bei GDDR4 und GDDR3). Wenn man jetzt die Datenrate verdoppelt indem man z.b. bei steigender und fallender Taktflanke überträgt anstatt einfach nur mit der steigenden dann würd ich das mit dem "Effektivtakt" ja akzeptieren weil man wirklich mit der doppelten Frequenz überträgt.

Aber wenn man wirklich nur die Bandbreite erhöht weil man eben das Interface zweimal zur Verfügung stellt und parallel arbeitet find ich es falsch zu sagen die Frequenz hätte sich erhöht - egal wie sehr man mit Realtakt und Effektivtakt hantiert....nur IMHO natürlich ;)
 

Ähnliche Themen

Zurück
Oben