News Radeon HD 4870 X2 schlägt GeForce GTX 280?

@desoxyribo:

also du meinst strukturbreiten von 0,02nm sind möglich? *g*

dann erklär mir das mal, wenn schon ein siliziumatom eine größe von 0,3nm hat? *g*

http://www.3sat.de/3sat.php?http://www.3sat.de/hitec/magazin/74959/index.html

es wird heutzutage davon ausgegangen, dass unterhalb von 32nm nichts mehr möglich ist, ich frag mich , wie die strukturen im breich von einem bruchteil eines atoms schaffen willst *gg*

auf gut deutsch, du redest blödsinn, sorry, ist aber so
 
@ KOAZNAKE
Hab dir dazugeschrieben das UT3 ohne Probs auf 30" geht, genau wie 90% aller anderen Spiele.

Hab mir die Mühe gemacht den CB-Test durchzuklappern: von allen getesteten Spielen sind genau 3 spielbar: UT3, FEAR und World in Conflict.

--> Stuss...
 
22nm werden wir bei Intel 2012 haben.
Und danach steht die Welt auch nicht still.

Nochmal: Für Multi Dice brauchts auch einen Dieshrink.
Kein Dieshrink bedeutet so oder so Stillstand, so weit wird es nicht kommen, sonst ist die Branche tot!


Du weißt doch um wie viel Geld es geht? Da wird man nicht einfach heute sagen: Hey wir haben 32nm jetzt ist schluss, abfahrt. Ranklotzen heißt es, weiter entwickeln.
Zumal 32nm weit von der Silziumatomgröße entfernt sind....
 
Zuletzt bearbeitet:
*lach* unyu.. genau.. 2012.. genauso genau wie der nehalem verschoben wird? *g*

die fabs für 32 sind noch net mal gebaut und ob 22nm jemals wirtschaftlich herzustellen sind oder ob man ganz andere materialien und techniken suchen muß, steht noch lange nicht fest.

bleiben wir mal bei den fakten... nvidia versucht in zukunft 55nm zu schaffen, während ati an 40 nm bastelt.

und das es physikalische grenzen gibt, sollte auch jedem klar sein.... man kann keine strukuren unterhalb einer gewissen atommenge herstellen, immerhin sollen diese atome gewisse strukturen bilden, oder wie willst du einen schalter mit einem atom bauen? *g*
 
Zuletzt bearbeitet:
cosmicparty schrieb:
@desoxyribo:

also du meinst strukturbreiten von 0,02nm sind möglich? *g*

dann erklär mir das mal, wenn schon ein siliziumatom eine größe von 0,3nm hat? *g*

http://www.3sat.de/3sat.php?http://www.3sat.de/hitec/magazin/74959/index.html

es wird heutzutage davon ausgegangen, dass unterhalb von 32nm nichts mehr möglich ist, ich frag mich , wie die strukturen im breich von einem bruchteil eines atoms schaffen willst *gg*

auf gut deutsch, du redest blödsinn, sorry, ist aber so

hm dann warens vielleicht 2nm, aber irgendwas um die 2, bestimmt nicht 20. desweiteren weisst silizium sehr ähnliche eigenschaften auf wie kohlenstoff, deshalb ist es wahrscheinlich das wenn es überhaupt leben auf nem anderen planeten gibt dass das dortige ökosystem auf silizium basiert, anstatt wie bei uns auf kohlenstoff. Vielleicht war die rede bei den 0.02nm auch mit kohlenstoff, das kann sich ja unbegrenzt mit sichselbst verbinden. vielleicht kann mit moderner technik kohlenstoff für halbleiter verwendet werden, dann könnte man wenigstens das überflüssige CO2 verwenden, sofern man das C extrahieren kann:D

Greetz

€dit: durchmesser eines kohlenstoffatoms ist 1/15'000'000mm, also wesentlich kleiner als ein siliziumatom
 
Zuletzt bearbeitet:
cosmicparty schrieb:
*lach* unyu.. genau.. 2012.. genauso genau wie der nehalem verschoben wird? *g*

die fabs für 32 sind noch net mal gebaut und ob 22nm jemals wirtschaftlich herzustellen sind oder ob man ganz andere materialien und techniken suchen muß, steht noch lange nicht fest.

bleiben wir mal bei den fakten... nvidia versucht in zukunft 55nm zu schaffen, während ati an 40 nm bastelt.

und das es physikalische grenzen gibt, sollte auch jedem klar sein.... man kann keine strukuren unterhalb einer gewissen atommenge herstellen, immerhin sollen diese atome gewisse strukturen bilden, oder wie willst du einen schalter mit einem atom bauen? *g*



Schaut doch mal über den Tellerand ... IBM ist da schon weiter...

http://www.pcgameshardware.de/aid,640348/News/IBM_32-nm-Prototypen_im_dritten_Quartal_dieses_Jahres/
 
cosmicparty
Nehalem ist pünktlich. Das erst Extreme kommt war doch klar. Schlecht informiert?

Fabs umstellen ist teuer, richtig. In der Branche gibts nichts geschenkt, ist aber die Sorge von TSMC, die können keine Uralten Fertigungsmethoden anbieten, sonst rennen die Kunden woanders hin.

ATi bastelt nicht an 40nm, für die Fertigung ist TSMC zuständig.
Den Fertigungsvorteil haben wir zuletzt beim 80nm R600 bewundern dürfen. Naja Nvidia hat aus NV30 gelernt: Niemals der größte Chip zuerst in die neue Strukturbreite.


Pepsito, danke für den Beitrag, aber unter uns du hast keine Ahnung was Hartz4 bedeutet und vor allem wer das bekommt, oder was es bedeutet es nicht zu bekommen.
 
Zuletzt bearbeitet:
@ desoxyribo:

wenn du von kohlenstoff redest, redest du von organischer chemie im unterschied zum silizium, das ist anorganische chemie *g*

organische chemie (kohlenwasserstoffverbindungen) kann "verbrennen" also kannste kaum ne organische cpu auf 90 grad erhitzen *g*

wie ich an deiner antwort erkenne, hast du keine ahnung von chemie sondern eher von irgendwelchen science fiction romanen *g*

auf gut deutsch... blamiert.. sorry

ja wasn orbumuk? ibm und amd erforschen 32 nm, sagte ich ja. die fab von amd ist in new york geplant.
zwischen forschung und marktreife liegen immer JAHRE.

und ob das mit den 22nm stimmt, was allgemein als KLEINST mögliche größe gehandelt wird, steht noch in den sternen.
 
Zuletzt bearbeitet:
ich finde es superlustig wie sich hier manche über die dualkarten aufregen aber ich gehe jede wette ein in ein bis zwei jahren gibts nichts anderes mehr. klar im moment sind die x2 bzw gx2 syssteme fehlerbehaftet und funtionieren nicht 100% aber wie war das damals bei XPx64 da lief am anfang fast nix vernünftig drauf doch mitlerweile sind die x64 OS recht ausgreift.

das die karten nicht gut skalieren kann man verstehen aber wenn man sich anschaut was insbesondere ATI in den letzten monaten geleistet hatt fürt das immer mehr zu 90%-100% plus und hey bei den meisten werkeln nur 2 von 4 kernen der cpu das auch kein perfektes skalieren und trotzdem werden die quads gekauft wie blöde

habe hier sehr oft gelesen das NV bessere treiber hatt kann das nicht nachvolztiehen habe auf eine 3870 gewechselt und jemand der mit mehr als einem monitor arbeitet bekommt bei den geforce treibern regelmäsig nen anfall.

versteht das hier nicht falsch mirist es egal wer wieviel leistung wo bringt binn kein hardcoregamer, mich interressiert wer das bessere,ausgereiftere konzept hatt und ich sehe das im moment bei ati die gtx280 erinnert mich an einen aufgemontzen golf (nicht persönlich nehmen)

und an an alle die von ner gtx280GX2 träumen fahrt ihr mit nem tieflader auf lans oder wie wolt ihr den 5 kilo kühler im gehäuse transportieren.

Gruß BOB
 
Zuletzt bearbeitet:
ich habe wirklich wenig ahnung von chemie, ich bin pilot und studiere nebenbei physik, da brauch ich das zeugs nicht. einigen wir uns drauf das es event. maximal 2nm werden kann ? achja, wenn erstmal die minimale grösse erreicht ist stehen quantenprozzis vor der türe, ich frage mich nur wie man in 10 jahren bei sich zuhause ein metall supraleitend bekommt;)

Greetz
 
supraleitend wird schwer, es sei denn wir kühlen unsere leitungen auf absoluten nullpunkt und das wäre sehr teuer da energieintensiv ;)

und cpus, die ja aus "schaltern" bestehen, kann man nun mal nicht in atomgröße bauen, da jeder schalter nun mal aud ner gewissen menge von atomen bestehen muß. 2 atome nebeneinander können niemals ein schalter sein.

quantenprozzis muß man abwarten, verspricht in der theorie sehr viel, aber ich denke bis zur marktreife
vergeht noch eine ganze generation.
 
cosmicparty schrieb:
und ob das mit den 22nm stimmt, was allgemein als KLEINST mögliche größe gehandelt wird, steht noch in den sternen.
Es stimmt nicht.
golda_fig150percent.jpg

Danach gibt die Halbleiterbranche nicht auf, wäre der Tot.
Es ist irgendwann Schluss mit der herkömmlichen Lithographie, mehr nicht.

Zudem werden die Wafer noch auf 450mm anwachsen.

Außerdem braucht man für Multi Die ebenfalls Shrinks.
 
Zuletzt bearbeitet:
cosmicparty schrieb:
ja wasn orbumuk? ibm und amd erforschen 32 nm, sagte ich ja. die fab von amd ist in new york geplant.
zwischen forschung und marktreife liegen immer JAHRE.

und ob das mit den 22nm stimmt, was allgemein als KLEINST mögliche größe gehandelt wird, steht noch in den sternen.

Das hört sich aber nicht an wie Jahre...

Memory cells on base of 22 nm technology, can appear already at the beginning of 2009. Product on base of 32 nm technology will be available already in the second-half of 2009, the first trial parties can be ordered at the end of this year. TSMC Company intends to begin the release of 32 nm product in the fourth quarter 2009.

http://xtreview.com/addcomment-id-4914-view-IBM-32nm-process-ready.html

Edit: Hier auch noch ein CB Artikel darüber: https://www.computerbase.de/news/prozessoren/ibm-amd-und-co-ab-2009-mit-32-nm-prozess.20669/
 
Zuletzt bearbeitet:
Hat eure Ekursion in die Nanowelt noch allzuviel mit dem Thema zu tun? Nein, also zurück zum Thema.
Hier muß keiner mit seinen Chemiekenntnisse protzen
 
Wahnsinn, schon nach den ersten Post ging´s ab und die Leute :stock: sich die Köpfe ein.
Mensch Leute, das sind doch nur Gerüchte :evillol:
 
@ phil: hat sehr wohl damit zu tun... soll ich erklären?

es ging um die begrenzung der shrinkfähigkeit bzw um die folgen von strukturgrößen.

d.h. das alles an physikalische grenzen gelangt, wo nvidia mit dem gt200 mit 65 nm angelangt ist. zu große strukturen, folglich zuviel stromverbrauch, deswegen zu hohe hitze und zu geringes taktvermögen, daraus resultierend zu geringe leistung trotz enorm vergrößerter die-fläche.

auf deutsch. nvidia hat sich verrannt und ati liegt technisch vorne ;)
 
Zuletzt bearbeitet:
Unyu schrieb:
Naja Nvidia hat aus NV30 gelernt: Niemals der größte Chip zuerst in die neue Strukturbreite.
Und was war dann bitte der G92?
Dieser Satz ist längst veraltet. Sowohl nV als auch ATI werden in Zukunft immer die größten Chips mit der kleinsten Strukturbreite fertigen, was ganz auch ganz logisch ist. 1. hat man die absolut gesehen größten Einsparungen an Chipfläche und 2. natürlich wegen der Leistungsaufnahme. Gerade beim GT200 sieht man ja auch, dass nVidia aufgrund der Größe nicht drumrumkommen wird, den schnellstmöglich zu shrinken.
 
cosmicparty
55nm wird am G92b getestet, erst wenns läuft kommt GT200b ran. Das nennt sich nicht verrannt, sondern abgewogen.
Sobald die 55nm gezeigt haben, das das Design läuft kommt der Große ran.

Was nützt ein 400mm² Die (GT200b), wenn der Yield mieser als beim 576mm² Die (GT200) ist?

aspro
G92 ist ein Performance Chip (nicht mit High-End verwechseln), gut zum testen mit mitllerem Risiko geeignet.
 
mat_2 schrieb:
@ KOAZNAKE


Hab mir die Mühe gemacht den CB-Test durchzuklappern: von allen getesteten Spielen sind genau 3 spielbar: UT3, FEAR und World in Conflict.

--> Stuss...

ich meinte eher 90% aller Spiele, die jemals erschienen sind bis heute, nicht unbedingt die, die gebencht werden hier auf CB. Die wurden ja deswegen genommen, weil sie die Graka auch fordern. Sprich das meiste andere aufm Markt ist spielbar.

Sorry falls es etwas hart rüberkam, mir ist schon klar das ohne Kantenglättung für manche nix geht. War nicht so gemeint^^ Wollte nur zum Ausdruck bringen, das man im Prinzip auch mit ner onboard Graka aufm 30" zocken kann, nur dann sinds eben Spiele von 95 :)

@Unyu: liest du überhaupt weiter als 10 Wörter vom Satz?

Ich hab gesagt du brauchst nich mit der 512MB Karte zu kommen, die 2% Unterschied kannste grad in die Tonne treten, das sieht kein Mensch. Von wegen Apfel/Birne, kann ich was dafür das NV-Grakas so viel RAM brauchen? Können ja gern die 256er 9600 gegen die 256 3850 antreten lassen, ich kann dir sagen wer gewinnt...

Und dann nimm mal nen aktuellen Treiber von ATI, wie ihn die 9600 (logischerweise, ein älterer unterstützt ja die Karte nicht) hat. Mit den Performance-Sprüngen von teilweise über 20% und durchschnittlich 12% mit dem 8.5er gehts im Performance-Rating auf CB noch mal n gutes Stück vorwärts.
Und mir gehts nicht um den reinen Preis, sondern grad in DEM Bereich um Preis/Leistung. Und da geht die 96 baden gegen die 3850 (von der ein User grad zuletzt irgendwo behauptet hat, er kann mit der super auf 24" zocken btw :eek:)

Ich will gar nicht sagen das das immer so war, aber grad im Moment schon!

KAOZNAKE:"Falls dus noch nicht mitbekommen hast, Multi-GPU ist die Zukunft, nicht weils besser ist, sondern einfacher und biliger:"

Unyu: "Das will ich sehen.
Sicher auch der Grund, das Nehalem ein one Die Design wird.
2 Dice sind immer eine Notlösung. Bei CPUs heute noch voll ok, bei GPUs katastrophal für die Effizienz."

CPUs und GPUs kann man da fast überhaupt nicht miteinander vergleichen. CPUs sind 80% Cache, Rest Logik, beim GPU umgedreht. Und der Cache ist leichter herzustellen, sprich die yieldrate ist wesentlich höher. Bei INTEL sowieso mehr als bei TSMC, jede Wette.

Ich meinte außerdem mit Multi-GPU nicht notwendigerweise auch zwei getrennte dies, schon klar das die irgendwann mal einen Chip rauf müssen.
Aber momentan gehts nunmal nicht besser, kann sein das wir mit 45nm schon DualCore-GPUs sehen und da ATI bewiesen hat, das zwei Chips auf eine Platine passen, kannste dich schon mal für ne Quadcore Graka warm anziehen.
-->2x DualCore-GPU auf einer Platine. Kann mir grad im Moment nicht vorstellen, das NVIDIA das zuerst bringt...


Und wenn doch, weiß ich schon wer als erster laut losjubelt...

:evillol:
 
Zuletzt bearbeitet:
Was ist eine Dual Core GPU? :confused_alt:
Entweder du packst mehrere Dice auf ein Package oder ein PCB oder du nimmst einen riesen Chip.

Der Vergleich 9600GT -> 3850:
gut dann nimm eben die 9600 GSO .... es ging eben um den Vergleich, das eine teuer zu produzierende Karte (9600GT) so billig im Vergleich zur 3870 ist!

CPUs sind leichter zu fertigen, teilweise wohl war. Nur eben ist ein CPU Kern schnell im Eimer, wenns mal nicht den Cache trifft, bei einer GPU schaltest du eben einen Shaderbock oder sonstewas ab.

Wenn Nvida Dual Die Karten bringt jubel ich nicht. Oder wo habe ich die Jetztigen GX2 bejubelt?
Wenn die Nachteile wie weggeblasen wären, wäre es anders, dann kein Thema, sollen meinetwegen 1000 Dice auf dem PCB hocken.
 
Zuletzt bearbeitet:
Zurück
Oben