Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
irgendwas muss amd/ati ja gemacht haben in der letzten zeit ;-) vllt war der r600 nur ne karte um einigermaßen nvidia vom hals zu halten und so zeit zu gewinnen =)
mich würde es auf jedenfall freuen wenn ati wieder aufholt
Weiterhin sollten sich einige hier erstmal mit dem Aufbau einer Grafikkarte beschäftigen. Ich empfehle dafür www.3dcenter.org und Googlepedia.
Eine CPU kann man NICHT mit einer Grafikkarte vergleichen, auf Grund der sehr unterschiedlichen Anforderungen. Eine Grafikkarte wird mit etlichen parallelisierbaren Aufgaben bombadiert, während der Thread einer CPU schwer zu parallelisieren ist.
Eine GPU ist im Prinzip schon seit Jahren ein Multicore. Die Erfindung von ATI wäre nur das alles auf mehrere Dies zu verteilen und eine Kommunikation zwischen den Chips herzustellen - also den Scheduler auszugliedern.
Wie schwer das ist, kann nur ATI sagen, aber daran geforscht wird schon lange und 3DFX hat schon vor Jahren bewiesen, dass sowas performant funktionieren kann.
Und die Leistungsaufnahme wird dementsprechend natürlich auch skalieren. Der kleinere Chip wird dementsprechend auch weniger Strom verbrauchen. Was leider nicht heißen muss, dass die Teile stromsparend werden -.-
Ich finde das auch nicht so unrealistisch.
Wenn sie den Chip sozusagen Spalten und aus einem der 4 "GPU´s" entspricht 4 macht is das doch ok. Es wird vielleicht auch einfacher so schnellere Karten zu bauen, denn 8 "einfache" Cores zu abuen ist denek ich mal einfacher als die 8 in einem DIE unterzubringen. (Rein Theoretisch betrachtet, wenn man das so vereinfacht sagen kann. Bin mir da nicht so sicher)
Wie dem auch sei, spätestens wenn die Karten rauskommen wissen wir mehr. Also abwarten und Tee trinken, denn heute is nichts mehr unmöglich
GeForce 8800 GTX hat schon jetzt 8 Cores von denen 2 abgeschaltet werden, wenn man daraus eine Geforce 8800 GTS macht Nur sind alle Cores auf einem DIE - auf dem auch noch der Tread-Execution-Manager, der Cache und alles was noch so dazu gehört - platziert
Klingt doch sehr nett. So gut kenne ich mich leider nicht aus, um beurteilen zu können, ob das nun realistisch ist oder nicht. Aber wenn ich hier einige Posts lese, scheint es garnicht so unrealistisch zu sein.
lass krachen junge. Mehr Information pls. Du sagst die News stimme, nenne doch mal bitte Quelle usw.
Ich halte es auch für möglich. Nehmen wir mal an AMD/ATI plant das schon seit geraumer zeit und hat es immer geheim gehalten. Aber ich finde das jetzt etwas zu früh. Oder????
Also meine Meinung dazu
Wenn das echt kommt mit 8 Kernen gehört mir
weil,
-45nm (zurzeit 80nm bei 2900xt)
-Leistung
-(Leistungsfreies) AA
Ich glaub nicht das sie scho ernorm schluckt
die nächste Generation nach der HD2900xt wird um einiges Stormsparender war ja schon bekannt
Wer Leistung will der kauft sich die auch und dem ist auch der Strom egal
Ein offic anwender geht auf Stabilität und kauft sich onbord usw.
Also wer sie kacke findet muss sich bei Nvidia umsehen
Aber 8 Cores sind zuviel
Höchstens 4
Vll jeder Kern der etwas anders berechnet
das wär mal was
Oder der Prozessor in 8 Kerne unterteilt ist der 8 verschiedene Aufgaben erfüllt.
Aber träumen kann man auch wo anders
Also echt top wenn sowas kommen würde und das wird auch i wann passieren mit 8 Kerne
Ja hab ich gelesen und kann dahin sicher möglich sein
Die HD3000 kommt ja noch, die gegensatz zum HD2000 stromsparender werden wird.
Bin auf die Leistung gespannt
Da im Moment noch niemand sagen kann wie schnell die Dinger sind, ist diese Aussage wohl nicht viel wert... Nichts für Ungut.
Besonders schön finde ich, dass ein Chip für die ganze Produktpalette verwendet wird. Hoffentlich klappt das Zusammenspiel der einzelnen Kerne ohne große Performanceeinbrüche.
Wenn ein Core so etwa so schnell ist wie eine HD2400, dann brauch die Karte schon 8 Cores für das Highend Modell...
Wer weiß, vielleicht kann die Karte die einzelnen Kerne je nach Bedarf ein und ausschalten. 1 Kern sollte für Windows reichen...
die news wird eher beim speicherinterface unglaubwürdig. ein 1024bit breites interface würde extrem viele layer benötigen, wahrscheinlich mehr, als bei derzeitigen pcbs überhaupt möglich sind.
bevor sowas eingesetzt wird wird der ram à la fb-dimm seriell angesprochen.
Zudem verursacht ein solches Interface noch enorme Kosten.
Aber die Entwicklung ist doch interessant. Ich frage mich, wie man das Ganze mit der Hitzentwicklung lösen will? Die akuellen Quadcores sind schon echte Hitzköpfe. Auf der anderen Seite lässt sich nicht wirklich so 1:1 auf die GPUs übertragen.
Es wird dann wohl so sein das der rest des Systems sogar mit Quad und 4 gig Ram die Graka ausbremst^^
Aber die Entwicklung ist doch interessant. Ich frage mich, wie man das Ganze mit der Hitzentwicklung lösen will? Die akuellen Quadcores sind schon echte Hitzköpfe. Auf der anderen Seite lässt sich nicht wirklich so 1:1 auf die GPUs übertragen.
Wer hat denn hier von 8 Kernen auf einer 8800GTX was gesagt?
Aktuell gibt es Dual GPU Karten nur in Form von 2 Chip-Lösungen. Zukünftig könnten aber auch Ein-Chip-Lösungen denkbar sein, mit mehren Kerne auf einer "DIE".
Wonach sehen für dich diese 8-Cluster aus? Was ist überhaupt ein Kern? Nehmen wir zum Beispiel den Athlon 64 X2. Wenn man einen Kern abschaltet arbeitet der Prozessor weiter. X2 ist ein Dual-Core, obwohl manche Teile nur einmal vorhanden sind, z.B der Speicherkontroller. Genau so kann man es dann auf die GeForce 8800 übertragen. G80 hat 8 Kerne und man kann sie alle einer nach dem anderen abschalten....
Aber was spricht denn marketingmäßig dagegen, ein Produkt rauszubringen, welches bei weitem nicht das ASS im Ärmel ist bzw. zu sein scheint ?
Ich weiss es ist eine total hirnrissige Vorstellung; aber gab es jemals in der Geschichte einen solchen Akt, dass ein Fabrikat schlechter zu sein vorgab, als es war und irgendwann im doppelten konterte?
Wenn ihr meine Frage total asozial findet, ignoriert sie einfach.
Die News lässt genügend Raum für Vermutungen^^
Oh man. Sowas als News zu bringen ist noch unter dem Niveau von einigen Seiten, die an Godzilla erinnern. ^^
Genau so kann ich mir jetzt irgendwas halbwegs sinnvolles oder auch total sinnfreies zu neuen Nvidsa-Karten aus den Fingern saugen .. aber das Armutszeugnis werden wir hier nicht ablegen.