@Tomahawk: er meinte wahrscheinlich die tolle Angebot-Nachfrage Kurve, die sich beim Idealen Preis treffen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Inno 3D liefert GeForce GTX 470/480 aus
- Ersteller Volker
- Erstellt am
- Zur News: Inno 3D liefert GeForce GTX 470/480 aus
- Status
- Für weitere Antworten geschlossen.
Lence_Laroo
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 629
Meine Güte, die Kurve mit dem schönen Break-Even-Point und so, is wohl Vielen noch in Erinnerung aus BWL Studium / Kaufmannslehre! ... hat man da nicht auch gelernt, dass der Markt sehr vielschichtig ist und sich nicht 1zu1 in solch ein Schema pressen lässt. Aber Hauptsache n bißchen Halbwissen zur Schau gestellt.
D
dirky8
Gast
Den gibt es doch eigntlich garnicht^^.die sich beim Idealen Preis treffen
Die Nachfrage und die verfügbare Menge bestimmt den Preis.
Viele wollen etwas, wovon es nur wenig gibt also steigt der Preis.
Viele wollen etwas, wovon es viel gibt, der Preis sollte sinken.
Da aber der Markt so gesteuert werden kann(Marketing) das es den Anschein hat es gibt nicht genügend vom Produkt, aber es können trotzdem mehr verkauft zu einem höheren, dem alten und nicht angepassten Preis macht die entsprechnde Firma mehr Gewinn.
So sehe ich derzeit mit dem Gerede um die Verfügbarkeit der 5xxx. Ob es nun ein Überschwingen aus der anfänglich wirklich schlechten Verfügbarkeit der Karten( um mal das I-net Foren Argument aufzugreifen) oder die ganze Sache vllt doch bewusster gesteuert ist oder wurde, sei einfach mal dahingestellt. Wie gesagt ATi ist ne KApitalgesellschaft. Hoffe ich konnte damit meine Meinung begründen zur Verfügbarkeit der 5xxx.
Ergänzung ()
Welches Halbwissen hat hier wer zur Schau gestellt?Aber Hauptsache n bißchen Halbwissen zur Schau gestellt.
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Fudzilla schrieb:We We can only add that despite the fact if Fermi will be the best gaming GPU ever build, it will be the most hyped GPU in the history of hardware accelerated graphics.
Bald hat das ganze Theater hoffentlich ein Ende.
Btw:
AMD: Herausforderungen mit OpenCL (Teil 2)
"AMD Gaming Evolved"-Kampagne gestartet
AMD auf der GDC 2010
AMD Fusion Render Cloud ab Q2 2010
GlobalFoundries: 22 nm Entwicklung in Dresden hat begonnen!
AMD: Nile-Plattform mit DX11, Fusion für AM3(?)
gino2780
Lt. Junior Grade
- Registriert
- Mai 2009
- Beiträge
- 453
Futscher schrieb:Was bist du dein für ein Vogel
Selber aber wissen das sie nur in gewissen Sequenzen schneller ist. Genau so ein daher gelabberter Müll wie meiner, abgesehen davon das es kein Müll war, sondern eine Vermutung, aber das raffst du ja nicht.
Eventuell gibt es in bestimmten, einzelnen Benchmarks solche Leistungsdifferenzen (potenziell auf beiden Seiten). Entscheidend ist jedoch das Mittel aus allen Benchmarks, nur dann kann man zu einer quantitativ wertigen Leistungsbeurteilung kommen. Das habe ich gemeint und nichts anderes.
Und wenn dann einer daher kommt und sagt: 'Fermi wird mindestens 20-30% schneller sein, als die 5870', dann ist dies einfach ein unqualifizierter, leerer Kommentar.
Nvidia machts richtig, die Kommentare hier sagen schon alles.
Da Nvidia eh erst so spät mit den Karten kommt, macht dieses Versteckspiel sogar richtig Sinn.
Ich freu mich schon tierisch darauf mir bald eine 470er für hoffentlich unter 400€ zu besorgen.
Von meiner 8800 auf eine 470er umzusteigen wird leistungstechnisch richtig krass, da interessieren mich die 5% mehr oder weniger auch nicht.
Für viele hier scheint der einzige Kaufgrund nur, wer hat die meisten Frames zu bieten...
Mich interessieren da eher die durchschnittlichen FPS, noch wichtiger die minimalen FPS. Und da scheint Nvidia endlich mal ne ordentliche Karte auf den Markt zu bringen die nicht so krass einbricht.
Was hilft mir denn effektiv ne Karte die 30% schneller ist durch kurzeitige FPS Boosts, die dann aber wenn die Karte gefordert wird stärker einbricht als die ach so langsame Konkurrenz.
Ich hoffe nur ich bekomm so eine schöne 470er zum Launch irgendwo zu einem fairen Preis, mehr will ich garnet.
Da Nvidia eh erst so spät mit den Karten kommt, macht dieses Versteckspiel sogar richtig Sinn.
Ich freu mich schon tierisch darauf mir bald eine 470er für hoffentlich unter 400€ zu besorgen.
Von meiner 8800 auf eine 470er umzusteigen wird leistungstechnisch richtig krass, da interessieren mich die 5% mehr oder weniger auch nicht.
Für viele hier scheint der einzige Kaufgrund nur, wer hat die meisten Frames zu bieten...
Mich interessieren da eher die durchschnittlichen FPS, noch wichtiger die minimalen FPS. Und da scheint Nvidia endlich mal ne ordentliche Karte auf den Markt zu bringen die nicht so krass einbricht.
Was hilft mir denn effektiv ne Karte die 30% schneller ist durch kurzeitige FPS Boosts, die dann aber wenn die Karte gefordert wird stärker einbricht als die ach so langsame Konkurrenz.
Ich hoffe nur ich bekomm so eine schöne 470er zum Launch irgendwo zu einem fairen Preis, mehr will ich garnet.
0xffffffff
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.831
Freue mich auch schon auf den Launch, hoffentlich fallen dann die Preise der ATI Karten =)
Ne ATI 5850 für ~200€ wäre schon toll.
Ne ATI 5850 für ~200€ wäre schon toll.
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
grensen schrieb:Mich interessieren da eher die durchschnittlichen FPS, noch wichtiger die minimalen FPS. Und da scheint Nvidia endlich mal ne ordentliche Karte auf den Markt zu bringen die nicht so krass einbricht.
Und das schließt du woraus? Aus den leaked Benchmark Screenshots, wo keiner weiß ob sie den Tatsachen entsprechen, und warum die ATI Karte in dem einen Bench auf 1 FPS gefallen ist? Na Prost Mahlzeit.
H
hrafnagaldr
Gast
GrayFoxHard schrieb:Warum? Der geneigte Leser entnimmt dieser News das es kein Paperlaunch, sondern wie oben erwähnt ein Hardlaunch wird. Alles andere war zuvor Spekulation.
Das ist ne Top-News!
Bleibt ab zu warten wie die Verfügbarkeit ausfällt.
Wie kommen denn alle auf das Wort Hardlaunch?
Hat das Ganze hier mit motorisierten Fahrzeugen oder Raketenabschüssen zu tun?
http://en.wikipedia.org/wiki/Hard_launch
Heißt das, die Grafikkarten werden schon angezündet bevor sie verschickt werden oder wie?
makiyt
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.449
Boa Leude, jetzt zerfleischt euch mal hier nicht ;-)
Ich bin ja nun ne Weile auf CB und lese die news immer mit extrem großen Interesse-zumal die News wesentlich qualitativer als auf winfuture.de sind^^.
Das muss man nun auch mal sagen. Wenn irgendwo RTL Berichterstattung ist, dann wohl eher auf winfuture als hier.
Soll kein Geflame sein, sonder meine Meinung. Und trotzdem bin ich jeden Tag auf beiden Seiten, weil ich mir denke: "Hey, ich muss die News ja nicht lesen, zwingt mich ja keiner". Und warum lese ich sie trotzdem? Ganz einfach, weil man ja auch mal ne richtig gute news finden kann, was vielleicht im Detail zwei oder drei Informationen mehr beinhaltet als Heise oder CB.
Das ist alles.
Zur Fermi-Berichterstattung. Obwohl ich eher etwas zu AMD/ATI tenidere, bin ich kein Fanboy. Ich muss sagen, ich habe mich aber imer gefreut, etwas über Fermi zu lesen, auch wenns oft bissl spekulativ war. Aber ist das denn nicht auch interessant, dann am Ende zu sehen, was sich als Wahr herausstellt und was als Irrtum?
Und wie jmd anders schon sagte: angebot und nachfrage;-)
Weil viele drauf warten, weil viele heiss auf Fermi sind, kommen eben mehr News, wenn sie auch mal mehr spekulativ sind-ja und, ist doch okay.
Vergleicht das mal mit Windows 7. Da kam jeden Tag auf winfuture. de ne News über einen neuen Build, neue Screenshots, neue Funktionen.
ich geb zu, das war nicht immer extremst informativ, weil sich ja nicht extrem viel von Build zu Build verändet. aber ich fands trotzdem interessant, weil man sich so schon im Vorfeld gut über die Funktionen "unter der Haube" von Windows 7 informieren kann^^.
Nichts anderens ists mit Fermi.
Im Desktosegment würde ich übrigens eher (!) ATI bevorzugen. Also eher , nicht ausschliesslich!
Ichs elbst habe aber im PC (notebook) ne nVidia Karte drin (8600M GT) und bin auch zufrieden mit der.
Und ich könnte mir auch super gut vorstellen, auch in einem Desktoprechner doch eine nvIDIA zu verbauen!
Dafür gibt es einen einzigen, guten Grund. Videoschnittfans wissen jetzt, wovon ich rede.
nVIDIA CUDA. Gibt ungemein Gas beim Rendern. Ich render ziemlich oft Videos, die verdammt lange brauchen.
Beispiel: Ein Video von einer Zugfahrt. Länge 10 Minuten, FULL HD 1920 x 1080, AVCHD (mpg4), Dolby Digital 5.1. Das ganze wird ebenfalls in das stark komprimierte und somit extrem rechenaufwändige AVCHD encodiert, und zwar mit Adaptive Field Coding (noch rechenintensiver) und natürlich mit 2pass Encoding mit Variabler Bitrate.
Ihr sehr also, es ist extrem rechenaufwändig.
-> AVCHD von AVCHD (anstatt unkomprimiertes DV-AVI in schwach komprimiertes MPG2)
-> Allgemein HD (4x höhere Auflösung als SD -> 4x längerer Zeitbedarf)
-> 2pass Encoding (verdoppelt die Renderzeit, da zwei durchgänge
-> Adaptive Field Coding (effektivere Komprimierung, 30% Mehr Zeit)
-> Filmlook. Das Premiere pro Plugin: Easy Movie Colors. Renderzeit 70Sekunden für 5s Sekunden Qellvideo, also über 13 mal länger!!!!!!)
So. Das ist ne Menge Holz. Ich hab Renderzeiten von 9 Stunden für 9Minuten HD Video.
Obwohl mein Rechner net ganz schlecht ist.
Intel Core 2 Duo T9500 mit 2x 2,6Ghz, 4GB RAM, 320Gb HDD mit 7200rpm, Nvidia GeFore 8600M Gt.
Gut, der Adobe Media Encoder nutzt die Graka kaum. Aber die nächste Version CS5 wird auch auf der Timeline die GPU zu 100% unterstützen.
Was denkt ihr, wie froh ich bin, wenn ich anstatt 9h Rendern nur noch ca. 5,5h brauche?
Denn so stark ist der Geschwindigkeitszuwachs beim Hinzuschalten der Grafikkarte mit CUDA. Getestet under CyberLink Power Director 8, der nvidia CUDA unterstützt. Beim Rendern nur mit CPU ist das Rendern mit CPU & GPU ca. 40% schneller.
Klar, ATI hat Strem, aber meines Wissens wird das kaum unterstützt.
Und ATI Stream wird nicht in PowerDirector bzw. Premiere Pro CS5 (ziemliche Referenz in Sachen Videoschnitt) implementiert werden.
Und von Sony Vegas o.ä hört man auch nichts.
Das heisst, mit der nvidia Graka hätte ich da definitiv Vorteile, vor allem, wenn ich ne stärkere GPU hätte.
Hatt mal in nem Test hier gelesen, dass ne GTX 295 400% schneller renderte als der schnellste Core i7 mit 3,33 Ghz.
Und 400% mehr power als der schnellste i7, da geht was^^.
Bei mir wären dass dan vielleicht ca. 1000% schneller, da der schnellste i7 meine süßen 2x 2,6 Ghz locker fertig machen.
Das soll kein Plädoyer für nvidia machen.
ich will nur ausführlich ein Feature begründen, das definitiv seine Darseinberechtigung hat und das es zwar auch bei ATI gibt, aber fast nicht genutzt werden kann.
Ich meine, was bringen mir von ATI TechDemos und ein oder zwei konverter, die was können?
Gut, es gibt OpenCL, aber bis da läuft, hab ich eh nen neuen Rechner und ne 5x stärkere Graka, die noch viel schneller beim Rendern ist als die aktuelle.
Ich mag mir nicht für jedes Feature neue Hardware holen müssen.
ich will jetzt ne Software habe, die CUDA Technik heute nutzt und nicht in 3 Jahren.
Und das ist nun wirklich GEIL von nvidia, dass die CUDA sogar für fast 3 jahre alte Grafikkarten (GeForce 8) nutzbar machen. So kann ich mit meiner "alten" Mühle problemlos HD Videoschnitt betreiben - ruckelfrei in der Timeline.
Das ist ein klarer nvida Vorteil.
und in zukunft werden viel mehr Programme auf GPUs laufen, um die CPU zu entlasten.
kaspersky hatte da mal ne demo:
http://winfuture.de/news,52190.html
ich denk, ich ein paar jahren und vor allem mit Windows 8 werden viele Hintergrundoperationen auf die GPU ausgelagert.
Wollte nur mal auf CUDA hinweisen und darlegen, dass es verdammt sinvoll ist.
Ich weiss aber auch, dass die Fermi eher ne Gamerkarte werden soll, von daher passt das nicht ganz genau dazu, das ich schreibe, trotzdem werden viele von CUDA nen nutzen haben.
hab irgendwo auch mal gelesen, dass nvidia in Zukunft auch viel in GPU Computing (CUDA) investieren will und alle neuen Grakas auch dahingehend optimieren will. Ist doch auch gut.
Ich bin ja nun ne Weile auf CB und lese die news immer mit extrem großen Interesse-zumal die News wesentlich qualitativer als auf winfuture.de sind^^.
Das muss man nun auch mal sagen. Wenn irgendwo RTL Berichterstattung ist, dann wohl eher auf winfuture als hier.
Soll kein Geflame sein, sonder meine Meinung. Und trotzdem bin ich jeden Tag auf beiden Seiten, weil ich mir denke: "Hey, ich muss die News ja nicht lesen, zwingt mich ja keiner". Und warum lese ich sie trotzdem? Ganz einfach, weil man ja auch mal ne richtig gute news finden kann, was vielleicht im Detail zwei oder drei Informationen mehr beinhaltet als Heise oder CB.
Das ist alles.
Zur Fermi-Berichterstattung. Obwohl ich eher etwas zu AMD/ATI tenidere, bin ich kein Fanboy. Ich muss sagen, ich habe mich aber imer gefreut, etwas über Fermi zu lesen, auch wenns oft bissl spekulativ war. Aber ist das denn nicht auch interessant, dann am Ende zu sehen, was sich als Wahr herausstellt und was als Irrtum?
Und wie jmd anders schon sagte: angebot und nachfrage;-)
Weil viele drauf warten, weil viele heiss auf Fermi sind, kommen eben mehr News, wenn sie auch mal mehr spekulativ sind-ja und, ist doch okay.
Vergleicht das mal mit Windows 7. Da kam jeden Tag auf winfuture. de ne News über einen neuen Build, neue Screenshots, neue Funktionen.
ich geb zu, das war nicht immer extremst informativ, weil sich ja nicht extrem viel von Build zu Build verändet. aber ich fands trotzdem interessant, weil man sich so schon im Vorfeld gut über die Funktionen "unter der Haube" von Windows 7 informieren kann^^.
Nichts anderens ists mit Fermi.
Im Desktosegment würde ich übrigens eher (!) ATI bevorzugen. Also eher , nicht ausschliesslich!
Ichs elbst habe aber im PC (notebook) ne nVidia Karte drin (8600M GT) und bin auch zufrieden mit der.
Und ich könnte mir auch super gut vorstellen, auch in einem Desktoprechner doch eine nvIDIA zu verbauen!
Dafür gibt es einen einzigen, guten Grund. Videoschnittfans wissen jetzt, wovon ich rede.
nVIDIA CUDA. Gibt ungemein Gas beim Rendern. Ich render ziemlich oft Videos, die verdammt lange brauchen.
Beispiel: Ein Video von einer Zugfahrt. Länge 10 Minuten, FULL HD 1920 x 1080, AVCHD (mpg4), Dolby Digital 5.1. Das ganze wird ebenfalls in das stark komprimierte und somit extrem rechenaufwändige AVCHD encodiert, und zwar mit Adaptive Field Coding (noch rechenintensiver) und natürlich mit 2pass Encoding mit Variabler Bitrate.
Ihr sehr also, es ist extrem rechenaufwändig.
-> AVCHD von AVCHD (anstatt unkomprimiertes DV-AVI in schwach komprimiertes MPG2)
-> Allgemein HD (4x höhere Auflösung als SD -> 4x längerer Zeitbedarf)
-> 2pass Encoding (verdoppelt die Renderzeit, da zwei durchgänge
-> Adaptive Field Coding (effektivere Komprimierung, 30% Mehr Zeit)
-> Filmlook. Das Premiere pro Plugin: Easy Movie Colors. Renderzeit 70Sekunden für 5s Sekunden Qellvideo, also über 13 mal länger!!!!!!)
So. Das ist ne Menge Holz. Ich hab Renderzeiten von 9 Stunden für 9Minuten HD Video.
Obwohl mein Rechner net ganz schlecht ist.
Intel Core 2 Duo T9500 mit 2x 2,6Ghz, 4GB RAM, 320Gb HDD mit 7200rpm, Nvidia GeFore 8600M Gt.
Gut, der Adobe Media Encoder nutzt die Graka kaum. Aber die nächste Version CS5 wird auch auf der Timeline die GPU zu 100% unterstützen.
Was denkt ihr, wie froh ich bin, wenn ich anstatt 9h Rendern nur noch ca. 5,5h brauche?
Denn so stark ist der Geschwindigkeitszuwachs beim Hinzuschalten der Grafikkarte mit CUDA. Getestet under CyberLink Power Director 8, der nvidia CUDA unterstützt. Beim Rendern nur mit CPU ist das Rendern mit CPU & GPU ca. 40% schneller.
Klar, ATI hat Strem, aber meines Wissens wird das kaum unterstützt.
Und ATI Stream wird nicht in PowerDirector bzw. Premiere Pro CS5 (ziemliche Referenz in Sachen Videoschnitt) implementiert werden.
Und von Sony Vegas o.ä hört man auch nichts.
Das heisst, mit der nvidia Graka hätte ich da definitiv Vorteile, vor allem, wenn ich ne stärkere GPU hätte.
Hatt mal in nem Test hier gelesen, dass ne GTX 295 400% schneller renderte als der schnellste Core i7 mit 3,33 Ghz.
Und 400% mehr power als der schnellste i7, da geht was^^.
Bei mir wären dass dan vielleicht ca. 1000% schneller, da der schnellste i7 meine süßen 2x 2,6 Ghz locker fertig machen.
Das soll kein Plädoyer für nvidia machen.
ich will nur ausführlich ein Feature begründen, das definitiv seine Darseinberechtigung hat und das es zwar auch bei ATI gibt, aber fast nicht genutzt werden kann.
Ich meine, was bringen mir von ATI TechDemos und ein oder zwei konverter, die was können?
Gut, es gibt OpenCL, aber bis da läuft, hab ich eh nen neuen Rechner und ne 5x stärkere Graka, die noch viel schneller beim Rendern ist als die aktuelle.
Ich mag mir nicht für jedes Feature neue Hardware holen müssen.
ich will jetzt ne Software habe, die CUDA Technik heute nutzt und nicht in 3 Jahren.
Und das ist nun wirklich GEIL von nvidia, dass die CUDA sogar für fast 3 jahre alte Grafikkarten (GeForce 8) nutzbar machen. So kann ich mit meiner "alten" Mühle problemlos HD Videoschnitt betreiben - ruckelfrei in der Timeline.
Das ist ein klarer nvida Vorteil.
und in zukunft werden viel mehr Programme auf GPUs laufen, um die CPU zu entlasten.
kaspersky hatte da mal ne demo:
http://winfuture.de/news,52190.html
ich denk, ich ein paar jahren und vor allem mit Windows 8 werden viele Hintergrundoperationen auf die GPU ausgelagert.
Wollte nur mal auf CUDA hinweisen und darlegen, dass es verdammt sinvoll ist.
Ich weiss aber auch, dass die Fermi eher ne Gamerkarte werden soll, von daher passt das nicht ganz genau dazu, das ich schreibe, trotzdem werden viele von CUDA nen nutzen haben.
hab irgendwo auch mal gelesen, dass nvidia in Zukunft auch viel in GPU Computing (CUDA) investieren will und alle neuen Grakas auch dahingehend optimieren will. Ist doch auch gut.
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Nvidia hat einige Benchmarks geleaked in denen bei den ATI Karten der V-Ram limitiert. Es wurden also bewusst slche Szenarien genommen, welche eh nicht spielbar sind, damit euphemistisch bissl mehr hermacht.
Die Dualkarte kommt wahrscheinlich im Sommer (GTX490) Siehe PCGH.
Die Dualkarte kommt wahrscheinlich im Sommer (GTX490) Siehe PCGH.
Zuletzt bearbeitet:
0xffffffff schrieb:Ne ATI 5850 für ~200€ wäre schon toll.
TSMC kann leider nicht genug herstellen, deswegen wird auch das Release der Nvidia Karten nichts an den Preisen ändern.
Complication schrieb:Danke für die erneute Erläuterung - auch wenn ich lediglich geschrieben hatte dass ich das zuvor noch nie gesehen hatte und nicht dass ich nicht weiss wie es zustande kommt. Ich hoffe es fühlt sich nun nicht noch jemand berufen mir zu erklären dass alle Gegenstände Licht reflektieren.
Dann solltest Du die Posts nicht so formulieren. Dein Post klang nämlich sehr ironisch und damit eher wie eine indirekte "Fake-Foto"-Behauptung.
Aber schön, dass Dir noch ein paar weitere Fachbegriffe eingefallen sind, die Du aneinander reihen konntest, um uns zu zeigen wie klug Du bist.
Du kannst uns auch einfach schreiben "Ich bin soo klug." Dann brauchst Du Dir nicht erst ein paar Stichworte wie "elektromagnetisches Spektrum" einfallen lassen.
Das reduziert übrigens auch die Wahrscheinlichkeit, dass man aus dem Physikbuch blödsinnige Stichworte wie "Rotverschiebung" und "Dopplereffekt" abschreibt, die mit diesem Fall überhaupt nichts zu tun haben.
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
makiyt schrieb:Klar, ATI hat Strem, aber meines Wissens wird das kaum unterstützt.
Und ATI Stream wird nicht in PowerDirector bzw. Premiere Pro CS5 (ziemliche Referenz in Sachen Videoschnitt) implementiert werden.
http://de.cyberlink.com/products/powerdirector/overview_de_DE.html
PowerDirector ist die erste Videoschnitt-Softwre im semi-professionellen Bereich, die für die Intel Core i7, NVIDIA CUDA und ATI Stream Technologien optimiert wurde.
Futscher
Banned
- Registriert
- Feb. 2008
- Beiträge
- 1.221
gino2780 schrieb:Eventuell gibt es in bestimmten, einzelnen Benchmarks solche Leistungsdifferenzen (potenziell auf beiden Seiten). Entscheidend ist jedoch das Mittel aus allen Benchmarks, nur dann kann man zu einer quantitativ wertigen Leistungsbeurteilung kommen. Das habe ich gemeint und nichts anderes.
Und wenn dann einer daher kommt und sagt: 'Fermi wird mindestens 20-30% schneller sein, als die 5870', dann ist dies einfach ein unqualifizierter, leerer Kommentar.
Du kannst es einfach nicht raffen, steht anscheinend nicht in deiner Macht.
Ich habe niemals erwähnt das die Fermi mindestens 20-30% schneller "ist".
Sondern, wenn sie nur 20-30 % schneller ist, sie für mich uninteressant ist.
Aber was und mit wem red ich da....
Ich weiß auch nicht, warum das hier immer zum Kleinkrieg von NVidia- und ATi-Fanboys wird.
Ich hoffe zwar, dass die Karten schnell sind, aber das ändert nichts an den guten Produkten, die AMD mittlerweile mit der 5xxx-Reihe bietet. Das ist meiner Meinung nach nach den 9xxx-Radeons endlich mal wieder eine verdammt gute Produktreihe; was sich mit den 4xxx ja bereits angedeutet hat.
Es kann jetzt sein, dass Fermi eine Enttäuschung wird und es kann auch sein, dass Fermi die AMD-Karten weghaut.
Viel wichtiger ist aber, das TSMC endlich seine Fertigung in den Griff bekommt und die Stückzahlen nach oben getrieben werden. Eine bessere Fertigung führt auch zu besseren Chips und höheren Frequenzen und hohe Stückzahlen und ein zumindest halbwegs guter Fermi führt v.a. zu einem Preiskampf.
Jeder NVidia-Fanboy, der sich wünscht, dass Fermi 1000x besser wird als die 5xxx und jeder AMD-Fanboy, der sich wünscht, dass Fermi 1000x schlechter wird als die 5xxx-Karten, scheint zu vergessen, dass in beiden Fällen keine echte Konkurrenz zu Stande kommen würde und das heißt, dass es nicht zu einem Preiskrieg auf beiden Seiten kommen kann.
Die AMD-Fans müssten sich eigentlich einen starken Fermi wünschen, denn nur dann muss AMD die Preise senken. Und die NVidia-Fans müssten einen schwachen Fermi haben wollen, weil er dann schnell billiger wird.
Ich wünsche mir, dass beide Firmen ordentlich die Preise nach unten korrigieren. Die 5xxx-Karten sind im Moment auf jeden Fall z.T. deutlich zu teuer. Und für Fermi gilt am Anfang sicherlich das gleiche und wenn die Stückzahlen nicht deutlich steigen, kann sich das auch nicht ändern.
Ich hoffe zwar, dass die Karten schnell sind, aber das ändert nichts an den guten Produkten, die AMD mittlerweile mit der 5xxx-Reihe bietet. Das ist meiner Meinung nach nach den 9xxx-Radeons endlich mal wieder eine verdammt gute Produktreihe; was sich mit den 4xxx ja bereits angedeutet hat.
Es kann jetzt sein, dass Fermi eine Enttäuschung wird und es kann auch sein, dass Fermi die AMD-Karten weghaut.
Viel wichtiger ist aber, das TSMC endlich seine Fertigung in den Griff bekommt und die Stückzahlen nach oben getrieben werden. Eine bessere Fertigung führt auch zu besseren Chips und höheren Frequenzen und hohe Stückzahlen und ein zumindest halbwegs guter Fermi führt v.a. zu einem Preiskampf.
Jeder NVidia-Fanboy, der sich wünscht, dass Fermi 1000x besser wird als die 5xxx und jeder AMD-Fanboy, der sich wünscht, dass Fermi 1000x schlechter wird als die 5xxx-Karten, scheint zu vergessen, dass in beiden Fällen keine echte Konkurrenz zu Stande kommen würde und das heißt, dass es nicht zu einem Preiskrieg auf beiden Seiten kommen kann.
Die AMD-Fans müssten sich eigentlich einen starken Fermi wünschen, denn nur dann muss AMD die Preise senken. Und die NVidia-Fans müssten einen schwachen Fermi haben wollen, weil er dann schnell billiger wird.
Ich wünsche mir, dass beide Firmen ordentlich die Preise nach unten korrigieren. Die 5xxx-Karten sind im Moment auf jeden Fall z.T. deutlich zu teuer. Und für Fermi gilt am Anfang sicherlich das gleiche und wenn die Stückzahlen nicht deutlich steigen, kann sich das auch nicht ändern.
Zuletzt bearbeitet:
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 551
- Aufrufe
- 66.834