Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News ATi R700 – Wohin geht die Reise?
- Ersteller Sebastian
- Erstellt am
- Zur News: ATi R700 – Wohin geht die Reise?
Der Nachbar
Vice Admiral
- Registriert
- Aug. 2007
- Beiträge
- 6.995
@Wintermute
Soweit ich mich erinnere, wollte 3dfx auch nur mit einem Rampage Chipdesign den gesamten Massenmarkt bedienen. Die Hardware T&L "Sage" Einheit sollte ab dem Mainstream (R+S) drauf und beim High-End Modell würde das R+R+S bedeuten. Hätte damals 3dfx die kleineren Strukturbreiten gekannt, hätten die das, was ATI jetzt glaubt zu tun, auch gemacht.
----
Effizient ist es auf jeden Fall, wenn man nur einen Chip für die gesamte Serie entwickeln muss, nur muss dieser Chip auch wirklich null Makel im Design und Leistung haben.
Wenn ich mir all die Hardwarefanatiker anschaue, wird aber bei schlechten Produkten schnell ein Produkt gegen ein schnelleres der Konkurrenz getauscht. Wieviel Innovationen das alte Produkt hat, wird zur Nebensächlichkeit, wenn die Leistung nicht stimmt.
Gruss
Soweit ich mich erinnere, wollte 3dfx auch nur mit einem Rampage Chipdesign den gesamten Massenmarkt bedienen. Die Hardware T&L "Sage" Einheit sollte ab dem Mainstream (R+S) drauf und beim High-End Modell würde das R+R+S bedeuten. Hätte damals 3dfx die kleineren Strukturbreiten gekannt, hätten die das, was ATI jetzt glaubt zu tun, auch gemacht.
----
Effizient ist es auf jeden Fall, wenn man nur einen Chip für die gesamte Serie entwickeln muss, nur muss dieser Chip auch wirklich null Makel im Design und Leistung haben.
Wenn ich mir all die Hardwarefanatiker anschaue, wird aber bei schlechten Produkten schnell ein Produkt gegen ein schnelleres der Konkurrenz getauscht. Wieviel Innovationen das alte Produkt hat, wird zur Nebensächlichkeit, wenn die Leistung nicht stimmt.
Gruss
Turrican101
Vice Admiral
- Registriert
- Aug. 2007
- Beiträge
- 6.342
Mc_Ferry schrieb:was die halbherzigkeit bei der 2k- und der 3k-reihe erklären würde
Was ist an der 3k-Reihe halbherzig? AMD/ATI brauchen nach der Zusammenführung und der Umstellung auf 55nm erstmal Geld für neue Entwicklungen und das bekommt man bestimmt nicht durch teure Highendkarten, die sich dann 100 Leute kaufen!
ATI setzt erstmal auf Low-End und Mittelsegment, wo sie momentan auch klar dominieren!
Mc_Ferry
Lt. Commander
- Registriert
- Feb. 2007
- Beiträge
- 1.196
aspro schrieb:@sebbekk
Ich denke eigentlich auch, dass man einen Chip entwickeln will auf einem Die und dann mehrere davon auf einem Package zusammenschaltet, ähnlich wie das Intel mit ihren Quadcores macht. Anonsten hätte man ja keine Vorteile und müsste weiterhin verschiedene Dice fertigen.
nein man muss nur einen quad kern herstellen und beim ausschuss, bei dem 1-3 kerne putt sind, diese deaktivieren (siehe phenom x3)
Cocacolalight
Commodore
- Registriert
- Nov. 2005
- Beiträge
- 4.438
Hört sich ziemlich interessant an. Würde mich freuen, wenn AMD/ATI dieses Konzept bald rausbringen würde, aber lieber warte ich ein halbes Jahr länger und habe eine fertig Entwicklung, als wieder einen Flopp.
Gruß Carlos
Gruß Carlos
BrOokLyN R!ot ³
Vice Admiral
- Registriert
- Dez. 2006
- Beiträge
- 6.606
Also dacht ich es mir doch. Das war aber shcon länger im gespräch bzw früher malö nur einen chip zu nehmen und diesen dann unterschiedlich zu takten bzw mehrer zu verbauen.
Also wird aus Crossfire doch noch was. Zwar etwas anders als wir uns das vielleicht vorgestellt haben, aber an sich ist es ja das gleiche. Dachte mir eh schon das Multi GPU die zukunft sein muss. Und ihr werdet sehen, sobald das da ist, wird auch crossfire (das jetztige) nen ordentlichenleistungsschub erfahren. Da dann treiber + Games/anwendungen auf Multi GPU geschrieben bzw ausgelegt sein werden.
Naja mal lieber nicht, sonst schneiden die noch wie die Phenoms ab. Sry böser sarcasmus
Nee also dürfte ja ne ganz gute sache werden. Das ist ja auch urprünglich der gedanke hinter dem "bündnis" gewesen. Und ich denke es wird früchte tragen. HOffen wir das die Kanadier abe rmehr zu sagen haben (so nun endlich sarkasmus aus )
Also wird aus Crossfire doch noch was. Zwar etwas anders als wir uns das vielleicht vorgestellt haben, aber an sich ist es ja das gleiche. Dachte mir eh schon das Multi GPU die zukunft sein muss. Und ihr werdet sehen, sobald das da ist, wird auch crossfire (das jetztige) nen ordentlichenleistungsschub erfahren. Da dann treiber + Games/anwendungen auf Multi GPU geschrieben bzw ausgelegt sein werden.
News schrieb:Ob AMD seine Erfahrungen im Multi-Kern-Design aus dem CPU-Bereich einfließen lassen könnte, oder ob die einzelnen Kerne via CrossFire miteinander kommunizieren werden, ist derzeit unklar.
Naja mal lieber nicht, sonst schneiden die noch wie die Phenoms ab. Sry böser sarcasmus
Nee also dürfte ja ne ganz gute sache werden. Das ist ja auch urprünglich der gedanke hinter dem "bündnis" gewesen. Und ich denke es wird früchte tragen. HOffen wir das die Kanadier abe rmehr zu sagen haben (so nun endlich sarkasmus aus )
Also dann hoffen wir doch mal AMD/ATI alles Gute. Die muessen sich ja dann auch gegen Intel's Larabee ( mit wie man sagt 16 Kernen) beweisen. Ich wuerde lieber AMD kaufen als Intel, da Ich lieber AMD ne Chance geben will sich irgendwann mal gegen Intel stellen kann.
Also immmoment habe Ich die Divise, wenn AMD 10% weniger Leistung zum gleichen Preis hat, wuerde Ich lieber AMD kaufen. Naja komme eh erst im Juni 2008 nach Deutschland zurueck. Mal sehen was sich bis dann geaendert hat.
mfg. MTR
Also immmoment habe Ich die Divise, wenn AMD 10% weniger Leistung zum gleichen Preis hat, wuerde Ich lieber AMD kaufen. Naja komme eh erst im Juni 2008 nach Deutschland zurueck. Mal sehen was sich bis dann geaendert hat.
mfg. MTR
GeneralHanno
Commander
- Registriert
- Juni 2006
- Beiträge
- 2.538
nein man muss nur einen quad kern herstellen und beim ausschuss, bei dem 1-3 kerne putt sind, diese deaktivieren (siehe phenom x3)
Das ist ja das, was man zur Zeit macht (z.b. die 2900GT ist eine 2900XT mit 80 deaktivierten Streamprozessoren). Das ist aber ein sehr ineffizientes System, da man die großen teuren dice für billige Produkte verwenden muss. Es macht (rein von der Wirtschaftlichkeit der Fertigung) mehr sinn jeden "Kern" einzeln zu fertigen, um sie dann "zusammen zu batschen".
Torhe
Lt. Junior Grade
- Registriert
- Nov. 2006
- Beiträge
- 392
hört super an!
dann muss amd (ati) nur noch einen passenden treiber raus bringen und die teile gehen ab. wenn das konzept aufgeht, würde für ein zukünftiges crossfire system mit 2, 3 oder 4 grafikarten sehr wirksam sein (nur noch der treiber muss die einzellnen kerne ansteueren und nicht mehr das spiel selber) weil ob nun 4 cores auf einer DIE sind, oder 2x4cores auf 2 DIEs ist ja kein großer unterschied mehr. Das Konzept hat potenzial, aber dass hatte der phenom auch und er hat nicht trotzdem enttäuscht! mal abwarten. würde mich freue würde, wenn amd (ati) wieder die performencekrone bekommen würde... bin auch gespannt was der G100 von nvidia bringt...
dann muss amd (ati) nur noch einen passenden treiber raus bringen und die teile gehen ab. wenn das konzept aufgeht, würde für ein zukünftiges crossfire system mit 2, 3 oder 4 grafikarten sehr wirksam sein (nur noch der treiber muss die einzellnen kerne ansteueren und nicht mehr das spiel selber) weil ob nun 4 cores auf einer DIE sind, oder 2x4cores auf 2 DIEs ist ja kein großer unterschied mehr. Das Konzept hat potenzial, aber dass hatte der phenom auch und er hat nicht trotzdem enttäuscht! mal abwarten. würde mich freue würde, wenn amd (ati) wieder die performencekrone bekommen würde... bin auch gespannt was der G100 von nvidia bringt...
S
ShaÐe45
Gast
dahum schrieb:Dumm nur, dass auch diese Karte für Crysis zu langsam sein wird.
Ah ja, weil du es sagst?
Immer diese Hellseher hier...
@Topic: Multi-Core GPU geht in die richtige Richtung. Sie sind es im Grunde ja schon lange.
Solange der Transistoroverhead durch ggf. redundant-nutzlose, dedizierte 2D-Bereiche klein genug ist, könnte die Strategie gar nicht so schlecht sein. Über die Chipverbindung könnte man jetzt mutmaßen...HT oder vielleicht doch gleich ein integrierter PCIe-Switch?
€: wollen wir nur hoffen, dass es dann AMD/ATi nicht wie dem Pionier auf diesem Sektor ergeht - Übernahme durch nVidia...
€: wollen wir nur hoffen, dass es dann AMD/ATi nicht wie dem Pionier auf diesem Sektor ergeht - Übernahme durch nVidia...
Commander64
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.336
Wenn ATI das wirklich zur Marktreife bringt und ein Core auch nur die Leistung eines R600 XT hätte, würde man mit den 4 Kernen sicherlich eine Ultra platt machen.
Napalm Death
Banned
- Registriert
- Dez. 2004
- Beiträge
- 344
@50) Torhe
ja, genau, am Besten so einen Treiber wie der jetzige, der die 2900XT 500% vor eine Ultra katapultiert hat.
ja, genau, am Besten so einen Treiber wie der jetzige, der die 2900XT 500% vor eine Ultra katapultiert hat.
daniel16420
Banned
- Registriert
- Okt. 2006
- Beiträge
- 1.949
Ist sicher gut zu produzieren, wenn ein oder zwei kerne defekt sind, wir der einfach per lasercut abgetrennt und als low bzw mainstream Graka verkauft!
myopF
Ensign
- Registriert
- Dez. 2006
- Beiträge
- 242
@sebbekk
hm definitionssache
chip is ja idr synonym mit die.
meinst du jetzt das auf dem wafer direkt die dice so abgelichtet werden, dass natürliche multidice chips enstehen, also mit interconnects aufm wafer direkt und man so entweder 1 die raussägt, oder 2, oder 4... (n) und dabei trotzdem alle noch eigenständig funktionieren können? das wäre natürlich eine gute möglichkeit sich den aufwand zu sparen beim packaging einzelne dice auf dem substrat zu verbinden.
erinnert stark an polaris, da wird ja eine ähnliche strategie verfolgt.
fragt sich nur wie dann die redundanzquote aussieht (uvd, scheduler etc).
hm definitionssache
chip is ja idr synonym mit die.
meinst du jetzt das auf dem wafer direkt die dice so abgelichtet werden, dass natürliche multidice chips enstehen, also mit interconnects aufm wafer direkt und man so entweder 1 die raussägt, oder 2, oder 4... (n) und dabei trotzdem alle noch eigenständig funktionieren können? das wäre natürlich eine gute möglichkeit sich den aufwand zu sparen beim packaging einzelne dice auf dem substrat zu verbinden.
erinnert stark an polaris, da wird ja eine ähnliche strategie verfolgt.
fragt sich nur wie dann die redundanzquote aussieht (uvd, scheduler etc).
Zuletzt bearbeitet:
Voyager10
Fleet Admiral
- Registriert
- Juli 2006
- Beiträge
- 11.336
Ich denke AMD ATI ist gezwungen die Entwicklung zu beschleunigen weil mit aktuellen Produkten kommen sie ja nie aus den roten Zahlen herraus. Die 3870 Karte soll bis Weinachten im Preis fallen, verdient man wieder weniger drann und der Phenom wird vermutlich nur Verluste einfahren .
Truecrime55
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 556
mir geht das alles zu schnell mit ati......wieso sollte ich mir heute ne neue graka von ati kaufen morgen wirds ne neue geben.........
Ähnliche Themen
- Artikel
- Antworten
- 34
- Aufrufe
- 1.270
- Antworten
- 5
- Aufrufe
- 909
- Antworten
- 479
- Aufrufe
- 55.446
Synology Q&A 2021
Was macht Synology anders/besser als Mitbewerber? Wohin geht die Reise ?
- Antworten
- 1
- Aufrufe
- 1.630
- Antworten
- 29
- Aufrufe
- 3.257