News Finale Taktraten von ATis RV770 durchgesickert?

Ich hoffe die HD4870 kann sich dann wirklich als gute Karte gegen die 8800 Ultra behaupten, bin gespannt wie die Tests werden und wie es mit der Uebertaktbarkeit sein wird. Preislich ist das ja schon was, mal sehen ob die 3870er Karten dann nochmal etwas im Preis fallen werden.
 
@MaNoFsTeeL
Wo hat denn bitte die 9800GX2 genügend Vram? Die hat doch auch nur 512MB, also 2x 512MB. Das sind aber keine 1024MB und somit hat auch diese Karte das Problem, sobald der Vram voll ist, das bei der Auflösung schnell passieren kann mit AA unf AF, sacken die Frames ein, da "ausgelagert" wird. Die 2x 512MB Vram bringen nicht viel, wenn die gezeigte Szene 650MB verschlingt.
 
@Buttkiss

Es ist immer wer da, der das kauft. Hier im Forum "laufen" auch genug Leute rum, die immer auf das aktuelle zurückgreifen und die PC Verkäufe sind ja auch Jahr für Jahr auf hohem Niveau. An Käufer wird es da schon nicht mangeln. ;)

Wobei die 240 € schon recht hoch sind (wenn man nach dem aktuellen Kurs auch zahlen würde), dann würde die X2 Version bestimmt um die 400 € oder höher liegen, dass wäre dann schon ein Rückschritt zur HD3xxx Reihe, aber gut den Finanzen kann das nur gut tun, die Leistung wird bestimmt auch gut sein für den Preis - ist die Frage, was dann von nvidia kommt und wer dann an der Leistungskrone steht. Velleicht geht das Preis-dumping dann von vorne los, dem Kunden kann es ja nur recht sein.
 
Klingt nice aber es ist wie immer abwarten und tee trinken und ob der gt200 schon fertig bei nv rumliegt weis auch keiner schon garnicht was der in wirklichkeit draufhat. ich denke es wird auch bei nv im highend breich auf daulgpu hinauslaufen.
 
herby53 schrieb:
Wobei die 240 € schon recht hoch sind (wenn man nach dem aktuellen Kurs auch zahlen würde), dann würde die X2 Version bestimmt um die 400 € oder höher liegen, dass wäre dann schon ein Rückschritt zur HD3xxx Reihe, aber gut den Finanzen kann das nur gut tun, die Leistung wird bestimmt auch gut sein für den Preis - ist die Frage, was dann von nvidia kommt und wer dann an der Leistungskrone steht. Velleicht geht das Preis-dumping dann von vorne los, dem Kunden kann es ja nur recht sein.


Du zahlst aber meistens 1:1 gegenüber dem US Dollar Preis, lange Zeit war das "gut" für uns, nun ist es halt schlecht für uns :P

Wenn die Karte 350 Dollar kostet, werden wir mindestens 300 zahlen müssen, ich würde sogar von 330 ausgehen.

cyrezz schrieb:
@MaNoFsTeeL
Wo hat denn bitte die 9800GX2 genügend Vram? Die hat doch auch nur 512MB, also 2x 512MB. Das sind aber keine 1024MB und somit hat auch diese Karte das Problem, sobald der Vram voll ist, das bei der Auflösung schnell passieren kann mit AA unf AF, sacken die Frames ein, da "ausgelagert" wird. Die 2x 512MB Vram bringen nicht viel, wenn die gezeigte Szene 650MB verschlingt.

Hmm gut, eventuell hast du Recht, ich bin davon ausgegangen, dass noch nicht ausgelagert werden muss bei 2x 512 :o

Andererseits gibt es doch auch 8800GT Versionen mit 1GB Ram, und dort wird sicherlich NICHT ausgelagert, trotzdem limitiert dort dann das SI, weswegen viele ja sagen, dass eine 8800GT mit 1GB Ram nicht wirklich Sinn macht.

Was sagst du nun? :D
 
Zuletzt bearbeitet:
Du willst doch nicht etwa behaupten das nvidia immer vor ati war, war bis vor der 8800er eigentlich immer ein abwechseln wer die leistungspitze hat, z.B. war vor der 8800gts ati auch ein paar monate weit vorne und davor wars sowieso immer abwechselnd. Wenn du natürlich immer die punkte raussuchst in der zeitspanne wo nvidia was neues brachte dann war da nvidia wohl meistens vorne das spiel kannst aber auch mit ati andersrum treiben.
 
Dieser Thread hier im Forum dürfte interessant für dich sein, da sind ein paar Beispiele gegeben, wie viel welcher Tiel so verbraucht.

Nun, von mir aus können die (nVidia & ATi) weiterhin ihre tollen Multi GPUs rausbringen, für mich (bisher) kein Grund sowas zu kaufen - siehe Mikroruckler und Preis- / Leistungsverhältnis. Was nicht heißt, dass irgendwann diese Technik ausgereifter ist und sich lohnen könnte.
 
@blackiwid: meinst du damit meinen post? ich hab doch geschrieben dass die sich immer abwechseln und dass keiner generell schneller ist... und ati war vor der 8800 auch sicher nicht weit vorne, der vorsprung der 1950xtx war nur im einstelligen bereich. die 1950 ist bei heutigen spielen zwar aufgrund ihrer shaderlastigen architektur klar im vorteil, aber zu der zeit wo sie aktuell war, war sie etwa gleichauf mit der 7900gtx. wenn man die dual-karten noch mitzählen will war die 1950xtx sogar zu keinem zeitpunkt vorne, aber dual-gpu halte ich für keinen brauchbaren vergleich...
 
Ist es wirklich günstiger, GDDR5 Speicher zu verwenden, um durch hohe Taktraten den Speicherdurchsatz zu erhöhen, anstatt das Speicherinterface zu vergrößern?
Kann ich mir irgendwie nicht vorstellen.

Wäre da für mehr/weiterführende Informationen dankbar!
 
MaNoFsTeeL schrieb:
Andererseits gibt es doch auch 8800GT Versionen mit 1GB Ram, und dort wird sicherlich NICHT ausgelagert, trotzdem limitiert dort dann das SI
Was bei GDDR5 Speicher mit einem Realtakt von 3870MHz aber bestimmt nicht vorkommen sollte:
256*3870/8=123,840 GB/s

Damit dürfte das SI ca. doppelt so breit sein wie das der 8800GTS (62,08GB/s) ;)
 
Zuletzt bearbeitet:
Die News hab ich gestern schon gelesen und zwar Hier wäre schön wenn ich endlich mal eine neue Graka holen könnte die sich auch lohnt, aber die Hd4k reihe soll ja auch nur 60% Mehrleistung bringen, mir noch zuwenig.
 
bluesativa schrieb:
Ein Shadertakt von 1050 hat Nvidia schon vor einem Jahr überholt.
[...]Auch wenn Nvidia teurer ist, Qualität hat nun mal seinen Preis. So ist es ja auch bei Automarken. Qualität Kostet!

1. Würde ich die beiden Shader-Varianten nicht so direkt vergleichen
2. Das Ganze hat doch hier nichts mit Qualität zu tun, sondern mit Leistung

@topic
Interessant, dass AMD hier jetzt denselben Weg geht wie nVidia. Am besten ist aber wahrscheinlich immer noch die Verdoppelung der TMUs. Wie man so hört war dies ja der größte Kritikpunkt bei AMDs Design. Ich bin gespannt, wie schnell die Karte sein wird. Die günstigen Preise für die 8800GT werden sich aber sicherlich preisdrückend auswirken, so dass ich schon zu Beginn mit einem Preis von deutlich unter 300€ rechne.
 
Also ich denke dass auf keinen fall $ = € sein wird, warum denn das?
Wenigstens 30% sollten es schon weniger sein!
An der Karte ist mir allerdings die SI zu klein :(
 
Kane60 schrieb:
Also ich denke dass auf keinen fall $ = € sein wird, warum denn das?
Wenigstens 30% sollten es schon weniger sein!
An der Karte ist mir allerdings die SI zu klein :(

Es ist fast immer 1:1. Bitte bedenken, dass die in den USA 3 Monate Gewährleistung geben müssen, bei uns aber 24!
 
@ Straputsky
Natürlich meine ich mit Qualität Leistung!, du Nase ;)

@ blackiwid
1. da kenn sich aber einer aus xD, bist wohl aus dem selben holz geschnitzt ^^

2. nein wollte nicht sagen das nv immer an der spitze war. sorry wenn es so rüber kam. ich wollte sagen das nv insgesammt länger an der spitze war. klar konnte sich ati auch mal an die spitze ringen, aber das hat nv schnell wieder mit einer neuen karte ausgeglichen. bis zu dem punkt wo der g80 raus kam. jetzt ist 1 jahr vergangen und ati hat es nicht geschafft die gtx oder die ultra vom tron zu stoßen. okay, mit der X2 schon, aber mann KANN NICHT eine single gpu mit einer multi gpu vergleichen!! das geht nicht! das sind zwei verschiedene welten!
 
Zuletzt bearbeitet:
@bluesativa zu 1. kein kommentar

zu 2. ja der 2900xt war halt mist, war bis vor kurzem nvidia fan (schon wegen den linux-treibern) aber seit amd ati gekauft hat und auch zumindest langsam die spezificationen raus rückt kann ich kein nvidia-fan mehr sein ^^

das mit der x2 hast natürlich bischen recht allerdings denk ich das das eine treiberfrage ist wenn es mal sauber bei allen speilen scaliert und die die microruckler wegkriegen (vielleicht auch erst mit einer neuen architektur also doch hardware) ist das natürlich schon interessant das sind halt die mit die ersten produkte hoffe das da mittelfristig sich einiges tut lieber 4 gpus mit wenig takt als 1 mit mega takt schon alleine wegen dem stromverbrauch.

Aber amd will sich halt auch mehr auf midrange bis mid-high-range markt konzentrieren, naja grafikkarten interessieren momentan eh kaum find ich gibt eh keine gescheiten spiele wenns mal wieder gute spiele gibt schau ich nochmal was bis dahin auf dem markt ist wenn da meine 3870 oc nicht eh noch aus reicht.

Naja wenn ich mir vielleicht bald mal so ne 27,5" kiste an schaffe mit fullhd wird das thema high-end vielleicht auch wieder relevanter für mich gute spiele vorrausgesetzt.
 
IgG schrieb:
Es ist fast immer 1:1. Bitte bedenken, dass die in den USA 3 Monate Gewährleistung geben müssen, bei uns aber 24!

Ich denke nicht, daß man das noch so sagen kann. Der Dollar ist ja in letzter Zeit regelrecht abgeschmiert, und da hab ich mal so auf die schnelle geschaut ob die alte Faustregel noch gilt ...

Beispiel, die 3870er von ASUS

Günstigster Geizhalspreis 141,88 €
Günstigster Pricegrabber Preis 169,99 $

Beispiel 2, eVGA 9800 GTX

Günstigster Geizhalspreis 251,93€
Günstigster Pricegrabber Preis 299,99 $

Sicher darf man nicht einfach die Währung umrechnen, aber 1 zu 1 ? Das war einmal ;)
 
ja, ich muss zu geben, ich war immer ati fan. eigentlich auch immer zufrieden. nur vor ca einem halben jahr hab ich mir einen neuen pc geleistet. und ein freund von mir exakt den gleichen, bis auf unsere grakas. er hat eine hd2900XT und ich habe mir eine 8800GTX OC geholt. ich war wirklich über den unterschied beeindruckt, und seit dem hat mich nv überzeugt. ich besitze einen 22"wide und da braucht man wenn man auf 1650*1280 auflösung gescheit spielen will eine ordentliche leistung... mein kumpel kann sich zwar nicht beschweren, was sein pc angilt, aber auf der auflösung bricht seine leistung zusammen. das problem habe ich nicht.

gebe dir aber recht das es an geilen spielen mangelt... crysis sieht zwar lustig aus, aber ich finde der spielspaß lässt ziemlich schnell nach...
 
Zurück
Oben