News R700: Bessere Skalierung mit neuer PCIe-Bridge?

sofern die bei OCExtreme.org im Forum aufgetauchte Präsentationsfolie von AMD denn echt ist
So viel ich doch weis, schreibt sich dieses Forum ohne das "E" zwischen OC und Xtreme (genauso wie die OCX- Mitglieder ohne das E geschrieben werden) - so siehts einfach nur schrecklich aus.
(vlt. eine Klammer ums E setzten oder einfach rauslöschen:))
 
ich mein das ja nicht als vergleich!

ich mein nur dass singlecpus ,multicpus gewichen sind


so wird das auch bei den grakas sein!
 
und @ cosmicparty und WW2Warlord....na toll...schon 2 Fanboys...
da haben sich 2 ja gefunden..doch leider nur im inet...real life habt ihr warscheinlich ja net...


mh..also die beste MultiGPU PLatformen hatte man doch mit 3dfx..100% leistungszuwachs..und keine microruckler^^
 
cosmicparty
Du weißt es zwar schon, aber ich schreibs gerne 100mal:
Die Shrinks gabs früher, wie auch in Zukunft. Ganz einfach.

Oder willst du mir erzählen, das RV770 das Ende der möglichen Transistoren auf einem Die ist? In Zukunft gibts dann 2x RV770, dann 4x, dann 8x, in X Jahren haben wir 100x RV770 Dice auf dem Package? Lustig.
 
Zuletzt bearbeitet:
@ philze:

wie kommst du nun zu der vermutung, wir hätten kein "real life"?

oder einfach wieder ne billige provokation, niveaulos aus den bildungsfernen schichten? ;)

unterstell keine privaten dinge, wenn du sachlich net mehr weiter weißt.

3dfx kann man mit "heute" net vergleichen, da damals net bild für bild, sondern zeile für zeile berechnet wurde.
aber im prinzip hast du recht, es gab keine microruckler, aber bedingt durch die tatsache, dass im endeffekt immer nur ein bild berechnet wurde... eben zeile für zeile ;)

@ unyu:

stimmt, die-shrinks gabs immer, bis es sie irgendwann nicht mehr gibt eben ;)
ati arbeitet an nem R800 in 40 nm, aber davon will ich eh net reden, der r700 schlägt eh schon alles.

fakt ist wohl, ab 22nm wird es mit silicium keinen shrink mehr geben können, da eben ne gewisse "materie" da sein muß um nen schalter zu bauen ;)
also n paar atome müssen schon da sein, da kann man net weiter shrinken.

in zukunft werden wir vielleicht quantencpus haben, die ne würfelform haben... fakt ist jedenfalls dass mit 22nm in ner gewissen grösse bei gpus und cpus nix mehr gehen wird.
intel geht im moment von 16 cores aus, was erstmal die grenze sein soll.
 
Zuletzt bearbeitet:
Das hatten wir schonmal. :rolleyes:
22nm sind nicht das Ende! http://images.pennnet.com/article_images/sst/org/golda_fig150percent.jpg
Und 11nm sind es auch nicht.

Wie willst du die Leistung ohne Dieshrink erhöhen? Multi Die fällt aus oder wie soll der Heimuser einen ganzen 10000$ Wafer für eine Karte bezahlen?

Was ist mit R800? Nvidia arbeitet an G300 und jetzt? Tolle Randbemerkung von dir, wie immer.
Zudem ich weiß ist, schwer die Vorzüge von einem Single Chip G200 (Single Chip ist nur einer von mehreren Vorzügen) gegenüber einer unbekannten CF Lösung, namens R700 als FanATIker zu erkennen.
 
Zuletzt bearbeitet:
Philze tut mir leid aber in meinen augen bist du nur ein störenfried, du trägst in keinster
weise zum thema bei und beschimpfst jeden zweiten als fanboy und machst leute auf billige art und weise an.
Unyu beruft sich auf alles, auf öffentliche wie auch nicht-öffentliche aussagen, hauptsache er kann sich als verblendeter Nvidia-Fanatiker profilieren.
Unyu du bist das Lächerlichste was hier im Forum unterwegs ist.

@cosmicparty

Kann dir voll und ganz zustimmen. µRuckler weg -> sehr übel für Nvidia

und bzgl. IgG's Zitat in der Signatur:
Ich war dieser User und er hat mich als dumm, desinformiert und Fanboy bezeichnet...
Nur hat er es alles jetzt wieder entfernt, weil ich irgendwie bei allem recht hatte.
Werde wohl ein paar seiner besserwisserischen Aussagen bei mir in die Signatur machen und ihn ins lächerliche ziehen, oder auch nicht weil sowas total bescheurt ist.
 
@ alphaGoku:

nochmal respekt für deiner treffende vorraussage, zu zeiten, als noch nvidiaboys meinten, die GT200 wäre ne "übergpu"
deswegen erwähnte ich das grade nochmal. du hattest so recht, nochmal respekt.

zu unyu.
erscheint es dir nicht auch logisch, dass es ab irgend einer größe, weil es dann zu wenig atome sind, es nicht mehr möglich ist, mit silizium einen schalter zu bauen?
beschäftige dich mit physik, wo die grenze sein wird ist noch net sicher, aber DASS es eine grenze gibt für silizium, das ist so sicher, wie das amen in der kirche. ich vermute eher 22nm.

danach gehts nur mit anderen techniken weiter.... ich erwähnte die quanten-cpus.
 
cosmicparty schrieb:
danach gehts nur mit anderen techniken weiter....
Korrekt. Mehr Transistoren sind in Zukunft bis zum Silizium Ende sind möglich und darüber hinaus.
Was hat das mit der angeblichen Notwendigkeit von CF heute zu tun? Nichts. Weder heute noch morgen braucht man zwingend tausende Dice auf dem PCB.

AlphaGoku schrieb:
Unyu du bist das Lächerlichste was hier im Forum unterwegs ist.
Aha das Zeichen von EOD. Auch wieder ohne genaue Fakten unterwegs?
Hast du dir auch die Kommentare der FanATIker hier im Forum durchgelessen?
Fang mal bei cosmicparty an oder bei ww2warlord oder den anderen 50 an.
 
Zuletzt bearbeitet:
@ unyu:

du kannst nicht wirklich logisch denken.

also, wenn man bald nicht weiter shrinken kann, weil silizium nicht mehr hergibt.... und wenn man gpus auch von der die-fläche nicht ins unendliche vergrößern kann, weil dann strom und kühlung und herstellungskosten ein problen werden.

DANN MUSS MAN MULTIGPU GRAKA VORANTREIBEN

man man man, sorry, du bist echt dumm unyu. tut mir leid, mir fällt nix anderes ein
 
Dumm? :rolleyes:
Nochmal langsam:
1. Du behauptet Dieshrinks sind nicht mehr möglich. Falsch. 55nm oder eben 65nm sind davon noch Jahre entfernt.
2. Du behauptest, das es später ohne Silizium weitergeht. Richtig.
3. Jetzt behauptest du, das man unbedingt Multi Die braucht. Warum?

Behauptung 1 und 2 passt nicht zusammen mit 3.
Wie soll man die Leistung steigern, wenn dann immer mehr Dice verbaut werden müssen? Weil der Einzelne Die kann ja nicht mehr Transistoren bekommen, siehe Behauptung 1 und 2.

Lücke in der Argumentation. So jetzt warte ich mal das ein Anderer mal hier weitermacht.... so viel Unwissenheit und Unfreundlichkeit ist zu viel des Guten.
 
Dai6oro schrieb:
Ich finde es schade dass man als Verbraucher und der soll doch die Produkte kaufen nur kleine Häppchen serviert bekommt.
Womit rechnest du, wenn du eine News liest, deren Überschrift mit einem Fragezeichen endet?

Dai6oro schrieb:
Man muss sich immer mehr auf Spekulationen verlassen und in manchen Foren artet dies dann schon in einen Kleinkrieg aus.
Niemand muss sich auf Spekulationen verlassen. Sonst beschweren sich alle über Paperlaunch, aber wenn Produkte mit harter Verfügbarkeit starten ist es auch wieder falsch oder was?

Dai6oro schrieb:
Gut ich gebe zu es hat keinen Sinn die Spezifikationen schon ein halbes Jahr früher rauszubringen. Aber 2 Wochen vor dem Release sollte das doch möglich sein.
Die Hersteller entscheiden selbst, wann sie Informationen herausgeben. Im Fall des R700 wird es wohl auch so sein, dass offizielle Daten erst bei Release verfügbar sind. Verschwiegenheit kann sich eben manchmal lohnen, wie z. B. aktuell beim RV770 - Stichwort Überraschungseffekt.

Dai6oro schrieb:
Also enweder man gibt Infos mit denen man was anfangen kann oder lässts bleiben. Gilt für Ati wie für Nvidia.
ATi hat keine Infos veröffentlicht. Diese Präsentationsgrafiken sind (falls sie überhaupt echt sind) ganz klassisch geleakt. Dafür kann ATi nach unserem Wissen gar nichts, es ist deine Entscheidung, ob du diese spekulativen Informationen für bare Münze nimmst.
 
q unyu:
kannst du lesen du pseudoexperte? ich sagte das limit wird wohl bei 22nm liegen.

warum man multigpu braucht?

ganz einfach, weil man in naher zukunft singlegpus von der leistung her net mehr steigern kann.
nicht wirtschaftlich eben.

ich sagte net multidie, sondern multigpu. kleiner unterschied, oder? ;)

dein "wort um mund verdrehen" klappt net kleiner *gg*
 
Du meinst Multi Die. Deine Behauptung ist dehalb schrott.
Multi GPU haben wir seit ~Riva TNT. Ist schon etwas her.
 
@ Unyu:

Auch bei singlekarten weicht die Range ab!

Erbsenzählerei braucht keiner hier
 
oh mann...das ahtet hier wirklich in einen Kleinkrieg aus...
Minderbemittelte fanATIker gegen unuy...und ich mittendrin...

ach ja und der eine der grad mal reingeplatzt ist und meinte ich trag nichts zum thema bei?
gescheid biste aber noch oder?.. ich wollt doch weiter im text machen und diesen "krieg der nerds" verhindern...

Außerdem muss ich jetzt mal Unuy recht geben...er bleibt wenigstens auf dem boden( in diesem Thread!!!!..in anderen nicht...)
 
Ich störe ja nur ungern diesen äußerst interessanten Kindergartenstreit der mir das Spiel Spanien Italien versüßt, aber mal eine Frage an die NVidia und Atifanboys hier. Eigentich mehr an erstere. Hat NV eigentlich schon seine Microruckler in den Griff bekommen wenn hier so sehr auf denen von Ati herumgeritten wird?
 
kann ein Moderator dazwischen gehn,bitte...langsam wirds zu persönlich..


ich muss jetzt ehrlich gesagt auch Unyu verteildigen, auch wenn wir keineswegs der selben Meinung sind.

Er verteildigt zwar ein sinkendes Schiff (metapher),aber er machts tapfer und bleibt sachlich, lasst also bitte die Beleidigungen raus,auch wenns net leicht fällt,aber seine Aussagen sind leider präzise und lassen sich leider schwer widerlegen, auch wenn alles ein wenig weit hergeholt wird,und extrem einseitig belichtet wird..

zu der Mutli Die Geschichte.. bei ca 22nm ist schluß, das stimmt bei Silizium,aber selbst Intel sagt, dass es dann mit anderen Materialien weiter geht,auf nix anderes bezog sich Unyus folie. Die zukunft sind net quantencomputer, sie sind nur ein überbrückung, genauso wie räumliche DIEs, am ende werden wir in zig jahren mal Molekularcomputer auf Basis komplexer Bindungen haben,hab da mal ne nette Vorlesung zu gehabt,aber da vergeht sicher noch ein Jahrzent.. Neulich hat ein HP Wissenschafter das 4te Grundelement der Elektrotechnik entdeckt (neben spule, kondensator und widerstand). Heißt irgendwie Myr... irgendwas...es ist ein widerstand,der die Spannung ohne Energiezufuhr beibehält, seine Dipole entsprechend einem Magneten so ausrichtet,dass er die benutze Spannung beibehält...somit könnte man Ramriegel benutzen um Windwos beispilsweise in 2ns starten zu lassen (was getestet wurde), oder endlos schnelle und stromsparende GrafikGPU´s...es gibt viele Optionen,also diskutieren brauchen wir net in diesem Thread drüber.


zu der CF/SLI geschichte. ich bin auch der Meinung,dass es allein der wirtschaftlichkeit halber die Zukunft ist und die Spielprogrammiere haben, werter Kollege Unyu, sehr viel damit zu tun. Wenn sie kein MultiGPU integieren und dieses unterstützen, beißen sich sowohl Nvidia als auch ATI den Ar*** auf, damit sie das mit einer Skalierung von über 50% zum laufen bringen, bzw über sehr umständliche tricks..


gruß
 
jo da muss ich dir voll recht geben schinzie...
entschuldigung an alle, die ich persönlich angegriffen habe...ir wolltet es aber nicht anders;):D:D..

Naja und was die Zukunft bringt wird sich zeigen...
 
Zurück
Oben