News ATi R700 – Wohin geht die Reise?

ryuko schrieb:
Ich liebe es wenn Leute hochintelligent wirken wollen :lol:
Und du hältst dich für den einzigen Intellektuellen auf der Welt, oder was sollen wir deiner haltlosen Äußerung entnehmen?

Sowas kannst du dir in Zukunft klemmen.

@Truecrime55

Die nächste Produktgeneration ist immer schon am Horizont zu sehen während man die gerade aktuelle gerade mal so kaufen kann. Das war in dieser Branche immer so und wird wohl auch so bleiben. Es ist ja auch nicht verkehrt, im Januar eine Penryn-CPU zu kaufen, obwohl man schon jetzt weiß dass erst Nehalem der nächste wirkliche Quantensprung wird. Die HD3870 jetzt zu kaufen ist noch viel weniger verkehrt, wenn man Preis und Leistung bedenkt - und die Tatsache, dass ATi für den R600 ewig gebraucht hat. Es ist kaum zu erwarten dass sie jetzt 'mal eben' in wenigen Monaten den R700 aus dem Boden stampfen, meines Erachtens nach.
 
Zuletzt bearbeitet:
@Truecrime55

wenn dir das Wasser bis zum Hals steht, kein vernüftiges Konzept hast und nur Produkte auslieferst, die in den Test zerissen werden, versuchst du auch alles menschenmögliche, um wieder festen Boden unter die Füße zu bekommen. Greift das nicht...glug, glug, glug
 
hab davon schon was pcgames gelesen (nicht sehr glaubwürdig) jedoch standen da bis zu 20 Kerne mit einem Speicher 1GB Anbindung 2 GB Speicher Entsprechende Takte einer normalen X800Pro. (glaub)

Wär schon geil damit könnte man sogar Crysis auf Ultra High spielen :D

Will zwar keine Gerüchte in die Welt setzen, jedoch finde ich den Thread nicht mehr.
 
Naja, nVidia pfuscht eigentlich noch viel mehr an der eigenen Produktpalette rum, wenn man sich mal ansieht, wieviele GeForce 8800 Karten es gibt - GT, GTX, Ultra, und demnächst drei oder vier verschiedene Versionen der GTS.

Der Test, in dem die HD3870 verrissen wird, muss iirc noch geschrieben werden.
 
frag mich wann die 5 Versionen der GTX rausbringen wird ja nicht mehr lange dauern.
 
Die 3870 ist auf jeden Fall Konkurenzfähig wenn man das P/L Verhältnis anschaut und noch extra mal ein Blick auf den Verbrauch beim Nichtstun wirft , da hat sie die Nase klar vorn und das spart Anschaffungskosten ein.. Ich frage mich trotzdem wo AMD das Geld hernehmen will um die Karte bis Weinachten noch günstiger abgeben zu können. http://www.winfuture.de/news,35962.html
 
Zuletzt bearbeitet:
@Napalm Death

Die neuen ATI Grafikkartenetwa nicht?

Wünschte mir mal ne übersicht über die GTS Karten is ja bisschen unübersichtlich geworden.
 
das is ja ma n geiles konzept :) baukastensystem wo mit einer fertigungsstraße die komplette pallete an grakas abgedekt werden könnte, ohne umstellungen und rüstzeiten. und je nach dem was nvidia aus dem hut zaubert werde eben ein paar mehr oder weniger kerne verbaut^^ und in sachen multicore is amd ja nach wie vor führend soweit ich weis. bei einzel oder doppel cpu-systemen hat intel zwar klar die nase vorn aber bei multi-cpu-servern skalieren die opterons gemessen an ihrer einzelleistung (!) besser wie die intels. hab leider die quelle nich mehr...
wenn diese technologie bei den grakas zum tragen kommt dürften die nen satten entwicklungsvorsprung vor nvidia haben...

und 2 terraflops? :) der g90 soll ja angeblich "nur" 1 terraflop schaffen^^ da wird nvidia diesmahl wohl nich mehr n ganzes jahr mit ein und der selben gpu mit der performancekrone rumlaufen dürfen^^ die ablöse in form des g100 sollte da wohl ziemlich schnell kommen sobald der r700 draußen is... ob die sich dann allerdings mit nem ganzen verbund von r700 messen kann bleibt abzuwarten :)

interessant isses allemal...
 
myopF schrieb:
@sebbekk
hm definitionssache :D
chip is ja idr synonym mit die.
meinst du jetzt das auf dem wafer direkt die dice so abgelichtet werden, dass natürliche multidice chips enstehen, also mit interconnects aufm wafer direkt und man so entweder 1 die raussägt, oder 2, oder 4... (n) und dabei trotzdem alle noch eigenständig funktionieren können? das wäre natürlich eine gute möglichkeit sich den aufwand zu sparen beim packaging einzelne dice auf dem substrat zu verbinden.
erinnert stark an polaris, da wird ja eine ähnliche strategie verfolgt.
fragt sich nur wie dann die redundanzquote aussieht (uvd, scheduler etc).
Das ganze wurde intern besprochen und da Dein Einwand mehr als berechtigt ist, habe ich das in der Meldung mit einigen klärenden Worten berücksichtigt. Unter anderem wurde das Wort "Die" durch "Package" ersetzt und das Modell des Gemini-Konzepts, bekannt von der 2600 X2 oder 3870 X2, wurde noch einmal näher betrachtet. Denn auch letzteres ist immer noch eine realistische Option. (über die Überschrift denk ich auch noch mal nach...)
 
Gibts bald Grafikkarten mit HT3.0 :D

Das war weder ironisch oder sonst was. Hypertransport ist ja nicht nur für die CPU entworfen worden als Methode.
 
Vielleicht gibts ja in Kürze eine Stellungnahme von AMD dazu, ob und wann die Multi-GPU-Karten tatsächlich Marktfreife erreichen, dann müsste man wenigstens nicht so oft spekulieren. Nichtsdestotrotz, diese Neuigkeit liest sich erfreulich gut.
 
In der Produktion ist es wohl egal, ob ich 1 großen Chip baue und da die defekten Bereiche abschalte, oder ob ich einen kleinen Chip baue und nur funktionierende zusammenbaue. Am Ende hab ich ja überall ähnlichen Ausschuss und ähnlichen Performance.

Es wird wohl lediglich in der Entwicklung und in der Logistik einfacher sein, kleine Chips zu bauen.

In der Entwicklung muss ich nur 1x übers Design nachdenken. Und in der Logistik, muss ich nicht mehr schätzen, welcher Chip welchen Absatz haben wird. Man produziert einfach einen und die Hersteller bauen daraus die gerade benötigten Karten.

Ich denk nicht, das einer der beiden Wege (alles in 1 Chip und abschalten / viele kleine Chips zusammenschalten) kurzfristig wesentliche Vorteile bieten wird. Beide Varianten sollten sich in der Übergangszeit wohl in etwa die Waage halten.
 
@footas

Quo vadis = Wohin gehst du.

Gab bestimmt ne Menge Anfragen, warum es so intellektuell klingen muss. :D
 
also bei dem Bericht von PC Games stand da Herbst 2008 aber denke das es später rauskommt ;D
 
Zurück
Oben