News Radeon HD 6700 mit 256-Bit-Speicherinterface?

Was soll ati schon auf die beine stellen,die karten werden genauso sein wie die hd 5000 serie nur etwas schneller.nur noch auf grafik zu setzen ist aber der falsche weg,nvidia geht den richtigen weg mit physx und 3d vision darin liegt das potenzial der zukunft,nicht in punktesammeln im vantage.
 
Klingt gut. Die Radeon 5770 ist eine der wenigen in AMD's aktueller Serie, die mehr oder weniger am Limit ihrer Speicheranbindung arbeitet... das merkt man gut daran, dass die Karte auf VRAM-Übertaktung deutlich besser anspricht als auf Takterhöhungen der GPU. Hätte sie 192bit statt 128bit Speicherinterface, wäre sie perfekt, auch mit starker GPU-Übertaktung.

Leider sind diese "Halbschritte" aus Architekturgründen bei diesen Karten nicht möglich. Und da die 6xxx'er Generation wohl die GPU-Leistung nochmal etwas anhebt, würde ein 128bit-Interface die Karte komplett ausbremsen, selbst bei leicht höher getaktetem Speicher - der überdies noch deutlich teurer werden würde. Der Schritt auf 256bit ist für mich also ein vollkommen logischer Schritt und weniger eine Überraschung.
 
ssmnized schrieb:
Das Problem ist. Je schneller die 6700 er Karten werden, desto teurer wird ATI bzw. AMD auch verkaufen.
Das ist nur fair ;). Denn je weniger schnell sie werden, desto uninteressanter sind sie auch.
 
aklaa schrieb:
PhysX kann bis jetzt Nvidia und schätze die 6er wird es nicht haben. Bis dahin verbleibe ich weiter bei der 5er ;-)

Natürlich werden die AMD Karten kein PhysX haben. Das werden wir auch nicht mehr erleben. Gründe gibt es haufenweise

Nuerne89 schrieb:
schön wäre ein 384bit SI und 1,5GB vram, aber das halte ich leider für unwahrscheinlich.

Warum? Hast du dir schon mal die Bandbreite ausgerechnet, die eine 6870 vermutlich haben wird?

casul schrieb:
Was soll ati schon auf die beine stellen,die karten werden genauso sein wie die hd 5000 serie nur etwas schneller.nur noch auf grafik zu setzen ist aber der falsche weg,nvidia geht den richtigen weg mit physx und 3d vision darin liegt das potenzial der zukunft,nicht in punktesammeln im vantage.

:lol: Jeder weitere Kommentar überflüssig! Da fällt mir echt nichts mehr ein...

CB_KeinNameFrei schrieb:
... würde ein 128bit-Interface die Karte komplett ausbremsen, selbst bei leicht höher getaktetem Speicher - der überdies noch deutlich teurer werden würde. Der Schritt auf 256bit ist für mich also ein vollkommen logischer Schritt und weniger eine Überraschung.

Dadurch wird der Chip aber auch um einiges größer und somit bedeutend teurer.
 
ssmnized schrieb:
Das Problem ist. Je schneller die 6700 er Karten werden, desto teurer wird ATI bzw. AMD auch verkaufen. Ich hatte allerdings darauf gehofft, dass die Karten die 5770 ablösen und dann zum gleichen Preis verfügbar sein werden. Es liest sich eher so, als wolle AMD mit den 6700 ern sich klar gegen die GTX460 positionieren. Günstiger anbieten wird man das Mittelklasse-Modell hingegen nicht. Dann käme es zu einer Patt-Situation im Mittelklasse-Segment, mit der beide (AMD u. nVidia) wohl leben könnten.

Trotzdem, es bleibt Spekulation :)
Ersteres, Ja.
Da muss man dann hoffen, was die Konkurenz a) alles an geschwindigkeit zulegen kann alias Voll-Ausbau von GF104 (GTX 475?) und GF100B (GTX 485?) oder b) dann mit der zugelegten Performance an Preis senken kann, da die neuen Steppings auch bessere Yield bedeuten.

Zweiteres, Nein.
Es gibt nicht nur ein Patt aufgrund der Performance.
Da gibt es auch den Preis (=Yieldrate = Kosten) und den Stromverbrauch und für die Notebook-Hersteller ist dann die Performance-pro-Watt auch sehr wichtig.

Und da könnte die HD 6700 dann günstiger verkauft werden und das so-wie-es-aussieht bei geringeren Stromverbrauch.

Das ist das spannende an der Konkurrenz.
Der Kampf geht weiter, auch wenn die Produkte gleich schnell sind.
 
romeon schrieb:
Das ist nur fair ;). Denn je weniger schnell sie werden, desto uninteressanter sind sie auch.

Ja,

das Problem ist aber schon jetzt vorhanden. Die 5770 HD kostet momentan genauso viel bzw. mehr als zum Produktrelease. Nämlich um > 130 €.

Wird die 6770 HD so schnell wie die GTX 460, stellt sich die Frage, ob sie auch für 180 € angeboten wird und wenn ja, ob die 5770 HD dann bei 120-130 € bleibt, so wie jetzt auch.

Für mich ist aufrüsten nur interessant, wenn entweder die 5770 auf 90-100 € fällt oder die 6770 für etwa 130-150 € angeboten wird.
 
casul schrieb:
Was soll ati schon auf die beine stellen,die karten werden genauso sein wie die hd 5000 serie nur etwas schneller.nur noch auf grafik zu setzen ist aber der falsche weg,nvidia geht den richtigen weg mit physx und 3d vision darin liegt das potenzial der zukunft,nicht in punktesammeln im vantage.

Geschwindigkeit, Verbrauch, Lautstärke, Abwärme, Physik, stereoskopisches 3D, Eyefinity, etc.

Zum Teil sind sie doch arg verspätet, aber falsch ist ihr Weg ganz und gar nicht - ganz im Gegenteil, sie machen vor allem in den Punkten 1 zu 3, 5 und 6 alles richtig.

Hingegen reitet Nvidia, auch wenn man bei diesem Thema nie einen Konsens findet, einen toten Gaul;
Wie kann die Zukunft in der proprietären PhysX Bibliothek liegen, welche unflexibel, Hardwaregebunden und zu allem Überfluss in den spielen total übertrieben und verschwenderisch (und damit der Performance betreffend entsprechend Hardwarehungrig) implementiert wird, wenn doch eben diese Politik dem Kunden eher Schadet als Nützt, und hinzu kommt das AMD Marktanteile übernimmt, und von dritten Hardware unabhängig Lösungen zu Verfügung stehen?

Ähnlich verhält es sich mit 3D Vision, welches ebenso Hardwaregebunden und nicht gerade günstig ist. Dabei gibt es schon seit Jahren, noch länger als 3D Vision selbst, Lösungen von dritten, wie beispielsweise iz3D. Auch die Catalyst Treiber müssten schon seit längerem Stereo 3D unterstützen, und das ohne dem Kunden vorzuschreiben, welche Grafikkarte oder 3D Brille er kaufen sollte.
Aber noch besser ist die Umsetzung wie sie zur Zeit von Crytek voran getrieben wird;
3D Support direkt aus dem Spiel heraus, und das nahezu OHNE Performance Einbußen!

Wenn das bei anderen Entwicklern Schule macht, wer will dann noch in 3D Spielen, mit 50% FPS über die Grafikkartentreiber?

Ich kann daher in keinster Weise eine falsche Zielrichtung seitens AMD erkennen, eher das genaue Gegenteil.
 
eventuell bekommt die "6800"-familie ja auch ein größeres speicherinterface, zb 384bit?
wenn nicht wird sicher dafür gesorgt dass die speicherbausteine leistungsmäßig weit genug auseinander sind, damit die familien sich nicht ins gehege kommen. ich bin gespannt auf das neue zeug... ich will endlich meine grafikkarte in rente schicken ;)
 
M4xw0lf schrieb:
eventuell bekommt die "6800"-familie ja auch ein größeres speicherinterface, zb 384bit?

DvP schrieb:
Warum? Hast du dir schon mal die Bandbreite ausgerechnet, die eine 6870 vermutlich haben wird?

Mitlesen und mitdenken? Die 5870 hatte 153GB/s und die ersten GPU-Z Shots zeigten über 200GB/s, also wofür? Auch wenn der Speicher übertaktet gewesen wäre, dürfte das oder sogar etwas weniger vollkommen ausreichen. Sogar die GTX 480 hat "nur" 177GB/s.
 
Ich warte noch auf eine Low-Profile-Karte auf mindestens HD5670-Niveau! Das wäre schön.

Gruß

ps. ...von ATI :-D
 
Zuletzt bearbeitet: (ps)
casul schrieb:
Was soll ati schon auf die beine stellen,die karten werden genauso sein wie die hd 5000 serie nur etwas schneller.nur noch auf grafik zu setzen ist aber der falsche weg,nvidia geht den richtigen weg mit physx und 3d vision darin liegt das potenzial der zukunft,nicht in punktesammeln im vantage.

Da gibt dir aber die Entwicklung auf dem Markt der dedizierten Grafikkarten seit Einführung der Radeon 4000er Serie Unrecht. Seither gewinnt AMD stetig Marktanteile hinzu und Nvidia verliert welche. Wie kann das also der richtige Weg sein und der von AMD der falsche? Was glaubst du passiert mit proprietären Lösungen, wenn der Marktanteil sinkt? Glaubst du ernsthaft, dass dann trotzdem immer mehr Spieleentwickler auf Features setzen, die (erfundene Zahl) über 50% der Spieler nicht nutzen können? Wie lange wird Nvidia diese proprietären Lösungen noch mit Finanzspritzen "pushen" können, wenn die Verkäufe zurückgehen, der Marktanteil schrumpft und die Gewinnmargen kleiner werden?

Am Ende sind 3D und Physik nette Features (wobei vor allem Physik auch ohne PhysX integriert werden kann) die aber die breite Masse (die sicherlich nicht hier in Foren unterwegs ist) nicht jucken. Für die zählt in erster Linie Preis / Leistung und daneben gibt es wohl noch mehr Leute die sich auch etwas um ihre Umwelt scheren und auf den Stromverbrauch achten als es PhysX-Fans gibt die unbedingt in Mafia 2 physikalisch korrekt im Wind wehende Kleidung brauchen. Außerdem sollte man Eyefinity nicht unterschätzen und obwohl ich nur 2 Monitore betreibe (und mir gar nicht mehr vorstellen kann wie man mit nur 1em vernünftig arbeiten kann) kann ich mir denken, dass man - einmal auf 3 umgestiegen - auch da nicht mehr zurückrudern will (vor allem fürs arbeiten sicher unheimlich praktisch und bei Nvidia nunmal nur möglich wenn man sich gleich 2 Grafikkarten verbaut, was die breite Masse ganz eindeutig nicht macht).

Für das Unternehmen hingegen zählt in erster Linie wieviele Chips man verkaufen kann und mit welchen Gewinnmargen und genau in diesem Bereich geht Nvidia seit der 200er Serie den falschen Weg (sogar schon der G80 und G92 waren was Die-Fläche / Performance / Effizienz angeht nicht besser als die ATI 3000er Serie - nur insgesamt von der Performance her deutlich besser wodurch man die ATIs mehr oder weniger ausstechen konnte). Zudem hat man immer noch keine Mid- und low-end Chips (seit der G80er Zeit nicht wohlgemerkt, denn die G200er Serie hat nie vernünftige mid- und lowAbleger abgeworfen) und auch Notebookchips kommen erst jetzt so langsam überhaupt auf den Markt.

Eine GTX 460 ist ein tolles Produkt für den Kunden und wird mit einem attraktiven Preis angeboten (auch wenn Preis/Leistung bei der 5770er und 5750er nach wie vor besser ist), aber der Chip dafür ist in etwa gleich groß wie derjenige einer HD 5870er und entsprechend sind auch die Herstellungskosten. Wäre der gesamte GPU-Markt nicht "supply-constrained" würde man wohl derzeit ein anderes Preisgefüge erleben. Zudem sind es knappe 2 Monate bis zum Release der HD 6000er Serie und AMD hat schon offiziell angekündigt die Preise der aktuellen Serie dann zu senken. Die GTX 460 hat Nvidia sicherlich jetzt noch etwas geholfen für dieses Quartal, aber das Zeitfenster in dem die Karte sehr attraktiv ist hat sich nahezu geschlossen (und war somit ungleich kurz wenn man schaut seit wann die 5000er Serie sich verkauft), denn in jedem Hardwareforum wird jetzt natürlich schon angeraten auf die 6000er Serie zu warten und dann entweder eine leistungsstärkere 6000er Karte zu kaufen oder eine billiger gewordene aktuelle Karte. Die Frage dabei ist in erster Linie wie weit Nvidia mit dem Preis der 460er nach unten fahren kann.

Als Kunde kann man nur hoffen, dass Nvidia bald Anschluss findet und nicht zu lange mit einem Refresh auf sich warten lässt, denn Konkurrenz bietet uns Käufern immer das beste P/L Verhältnis. Hingegen ist es sonnenklar, dass aktuell AMD eindeutig die besseren Karten hat und solange Nvidia nichts aus dem Hut zaubert werden die Marktanteile mit Release der 6000er Serie weiter sinken. Den Flame und Fanboyism kann man sich dabei übrigens schenken, denn ich würde mir nur wünschen, dass Nvidia unerwartet einen GF100b respin bringt oder dergleichen und ich wieder High-End für 200 Euro kaufen kann wie zu 4870er Zeiten. Die 5870er geht aktuell für min. um die 330 Euro und die 6870er wird da wohl kaum billiger werden.
 
Naja, wir waren schon bei 384 Bit und 512 Bit und sind wieder zurück auf 128 Bit, daraus nun Performancevermutungen anzustellen ist wohl etwas verfrüht.

Bereinigt um Taktsteigerung kann man seine Schlüsse ziehen, dazu brauchen wir aber einen realen Test.
 
milamber! schrieb:
Geschwindigkeit, Verbrauch, Lautstärke, Abwärme, Physik, stereoskopisches 3D, Eyefinity, etc.

Zum Teil sind sie doch arg verspätet, aber falsch ist ihr Weg ganz und gar nicht - ganz im Gegenteil, sie machen vor allem in den Punkten 1 zu 3, 5 und 6 alles richtig.

Hingegen reitet Nvidia, auch wenn man bei diesem Thema nie einen Konsens findet, einen toten Gaul;
Wie kann die Zukunft in der proprietären PhysX Bibliothek liegen, welche unflexibel, Hardwaregebunden und zu allem Überfluss in den spielen total übertrieben und verschwenderisch (und damit der Performance betreffend entsprechend Hardwarehungrig) implementiert wird, wenn doch eben diese Politik dem Kunden eher Schadet als Nützt, und hinzu kommt das AMD Marktanteile übernimmt, und von dritten Hardware unabhängig Lösungen zu Verfügung stehen?

Ähnlich verhält es sich mit 3D Vision, welches ebenso Hardwaregebunden und nicht gerade günstig ist. Dabei gibt es schon seit Jahren, noch länger als 3D Vision selbst, Lösungen von dritten, wie beispielsweise iz3D. Auch die Catalyst Treiber müssten schon seit längerem Stereo 3D unterstützen, und das ohne dem Kunden vorzuschreiben, welche Grafikkarte oder 3D Brille er kaufen sollte.
Aber noch besser ist die Umsetzung wie sie zur Zeit von Crytek voran getrieben wird;
3D Support direkt aus dem Spiel heraus, und das nahezu OHNE Performance Einbußen!

Wenn das bei anderen Entwicklern Schule macht, wer will dann noch in 3D Spielen, mit 50% FPS über die Grafikkartentreiber?

Ich kann daher in keinster Weise eine falsche Zielrichtung seitens AMD erkennen, eher das genaue Gegenteil.


Kann ich nur Unterschreiben. Ich glaube aber das NV den toten Gaul im Moment so reitet, weil sie keine andere Möglichkeit haben. Gutes Marketing haben sie wirklich und lassen wohl im Journalismus an den richtigen Stellen Geld fließen. Das muss ich Ihnen zugestehen.
Anders kann ich mir absolut NICHT erklären, warum alle immer wieder runterbeten 3D Vision, PhysX.... vor 3-4 Jahren hat doch jeder von denen noch Ageia für die extra PhysX Karte ausgelacht. Und seien wir mal ehrlich. Um PhysX richtig zu nutzen, brauchst du eine High End oder eben eine 2. Karte. Ergo eben wieder eine Zusatzkarte, die vorher so ausgelacht wurde... Naja. Verstehe wer will. AMD macht es im Moment richtig.

Ich bin nur Gott froh, dass es im Grafikkartenbereich tatsächlich noch echte Konkurrenz gibt. Das ist in vielen Bereichen nicht mehr wirklich der Fall.
 
Man darf dabei nicht vergessen das ganz besonders in diesen Bereichen nicht nur Technische Leistung zählt sondern auch Werbung und persönliche Präferenz. Diese beeinflusst extrem das Kaufverhalten - besonders derer die nicht perfekt informiert sind was einen Großteil der Kunden ausmacht. Diese Kaufen aufgrund ihrer eigenen Überzeugung oder der anderer - also auf Empfehlung. Daher wird NVidia nicht so schnell echte Probleme bekommen. Ein Umschwung ist da sehr langsam. Dazu kommt nun die direkte Kopplung mit dem AMD Logo/Namen der eben nicht für die Performancekrone steht. So sind es viele Kleinigkeiten die dann zum Kauf führen die zu größeren Teilen nicht von Verbrauchs/Leistungsfragen dominiert werden. Diese Klientel macht nur geringe Teile aus. Genug Psychologie ;), ich freue mich drauf und bin durchaus bereit zu wechseln wenn das Packet stimmt - dazu gehört aber auch Verfügbarkeit.
 
Plastikman schrieb:
...
Anders kann ich mir absolut NICHT erklären, warum alle immer wieder runterbeten 3D Vision, PhysX.... vor 3-4 Jahren hat doch jeder von denen noch Ageia für die extra PhysX Karte ausgelacht. Und seien wir mal ehrlich. Um PhysX richtig zu nutzen, brauchst du eine High End oder eben eine 2. Karte. Ergo eben wieder eine Zusatzkarte, die vorher so ausgelacht wurde... Naja. Verstehe wer will. AMD macht es im Moment richtig.
...

Der Witz an PhysX ist vor allem der, dass das meiste CPU-PhysX (nur eine handvoll Titel bietet GPU PhysX) ist und mit der Nvidia GPU überhaupt nichts zu tun hat und auch von jedem ATI-Nutzer genossen werden kann. Erst bei Mafia II hat man doch deutlich gezeigt, dass man dank einiger Tweaks fast alle PhysX Effekte (die auf der CPU laufen) nutzen kann, auch mit einer ATI und ohne krassen Performanceverlust. Nur auf die "physikalisch korrekt wehende Kleidung" und die 10 Mio Betonpartikel die man aus Säulen schießen kann (was nebenbei gesagt wohl kaum zur Atmosphäre beiträgt, da völlig unrealistisch und lächerlich umgesetzt) muss man verzichten, aber mit dem Effekt brechen die Nvidia-Karten halt auch von der Performance her ein.

Eine einfache "CPU-PhysX" only Option würde das Spiel für alle ATI-Nutzer auch ohne Tweaks attraktiver machen (so einfach, wie diese Tweaks sind wäre eine solche Option mit Leichtigkeit zu integrieren). Es ist aber verständlich, dass Nvidia bei TWIMTBP und PhysX Titeln so etwas natürlich nicht will, schließlich fließen da auch Geld und angeblich Gratis-support, wenn eine Spieleschmiede sich entscheidet Werbung für Nvidia zu machen.

tza schrieb:
Man darf dabei nicht vergessen das ganz besonders in diesen Bereichen nicht nur Technische Leistung zählt sondern auch Werbung und persönliche Präferenz. Diese beeinflusst extrem das Kaufverhalten - besonders derer die nicht perfekt informiert sind was einen Großteil der Kunden ausmacht. Diese Kaufen aufgrund ihrer eigenen Überzeugung oder der anderer - also auf Empfehlung. Daher wird NVidia nicht so schnell echte Probleme bekommen. Ein Umschwung ist da sehr langsam. Dazu kommt nun die direkte Kopplung mit dem AMD Logo/Namen der eben nicht für die Performancekrone steht. So sind es viele Kleinigkeiten die dann zum Kauf führen die zu größeren Teilen nicht von Verbrauchs/Leistungsfragen dominiert werden. Diese Klientel macht nur geringe Teile aus. Genug Psychologie ;), ich freue mich drauf und bin durchaus bereit zu wechseln wenn das Packet stimmt - dazu gehört aber auch Verfügbarkeit.

Genau von diesem Rufbonus hat Nvidia aber mit dem Fermi einiges eingebüßt, da nun in vielen Köpfen die nicht perfekt informiert sind nur noch drinnensteckt, dass Fermi "laut, teuer und viel zu stromhungrig" ist. Da die breite Masse der Kunden eben keine Enthusiasten sind, die 400 Euro für eine GTX 480 ausgeben und denen Stromverbrauch und Lautstärke (dank custom Kühler oder Wakü) völlig egal sind, ist das auch nicht gerade günstig für das Image.

Natürlich gibt es keinen schnellen Umschwung, aber der langsame Umschwung läuft schon seit der 4000er Serie (4850er P/L Wunder, habe ich damals allen empfohlen und kenne zig Leute die so eine Karte haben und die auch heute noch ausreichend ist mit etwaigen, seltenen und kleinen Abstrichen hier und dort), wie alle "discrete GPU" Statistiken belegen. Damals hat man bei AMD den mobilen Sektor noch verschlafen, mit der 5000er Serie hat man beides richtig gemacht.
 
Zuletzt bearbeitet:
tza schrieb:
Man darf dabei nicht vergessen das ganz besonders in diesen Bereichen nicht nur Technische Leistung zählt sondern auch Werbung und persönliche Präferenz. Diese beeinflusst extrem das Kaufverhalten - besonders derer die nicht perfekt informiert sind was einen Großteil der Kunden ausmacht. Diese Kaufen aufgrund ihrer eigenen Überzeugung oder der anderer - also auf Empfehlung. Daher wird NVidia nicht so schnell echte Probleme bekommen. Ein Umschwung ist da sehr langsam. Dazu kommt nun die direkte Kopplung mit dem AMD Logo/Namen der eben nicht für die Performancekrone steht. So sind es viele Kleinigkeiten die dann zum Kauf führen die zu größeren Teilen nicht von Verbrauchs/Leistungsfragen dominiert werden. Diese Klientel macht nur geringe Teile aus. Genug Psychologie ;), ich freue mich drauf und bin durchaus bereit zu wechseln wenn das Packet stimmt - dazu gehört aber auch Verfügbarkeit.

Kann es sein dass ihr zuviel Langeweile habt? AMD und nVidia nehmen sich doch gar nix. Beide versuchen sich immer wieder mit Features abzusetzen die unsinnig sind. Egal ob PhysX (nv) oder DirectX 10.1 (amd), beide übertrumpfen sich sowohl in der Leistung als auch in Marketing-Schwachsinnigkeiten gegenseitig regelmäßig. Ich kann schlicht nicht nachvollziehen warum es überhaupt sowas wie Fanboys gibt. Jemand als uninformierten Käufer abzustempeln weil er nicht eine Grafikkarte vom eigenen Hersteller kauft ist schlicht dekadent. Jetz ist bis zum Erscheinen der neuen 60er Gen. die GTX 460 der P/L-Knaller. Das wird immer so hin und her gehen solange es nur zwei große Grafikkarten-Hersteller gibt. Sich auf einen von den beiden festzuschreiben, DAS ist bescheuert und uninformiert. Man merkt dass es in der IT-Welt zuviele Akademiker gibt. Ab einem gewissen Bildungsgrad nimmt die Intelligenz spürbar wieder ab...
 
Khabaal schrieb:
AMD und nVidia nehmen sich doch gar nix. Beide versuchen sich immer wieder mit Features abzusetzen die unsinnig sind. Egal ob PhysX (nv) oder DirectX 10.1 (amd),

Tja und das ist eben das Problem. DX10.1 wäre extrem sinnvoll gewesen, jedoch konnte es sich nicht durchsetzen, weil der Marktführer gesagt hat: Ne, das brauchen wir nicht. Wir bauen doch nicht unsere Chips um. Zusätzlich wurde auf Spieleentwickler auch noch Druck ausgeübt, die es einsetzen wollten und vorher nVidias Unterstützung "genossen" haben - siehe Assassins Creed. Viele (wie auch du) glauben deswegen, dass es ein überflüssiges Feature gewesen wäre.
Es gibt genügend Beweise und auch etliche Aussagen von MS, dass DX10.1 extrem wichtig ist, wenn man die DX10 Features effizient nutzen will. Erst DX11 kann/konnte diese Verbesserungen nun an die breite Masse bringen.

P.S.: Sorry, wird wohl etwas OT. Ich zügle mich nun ein wenig *gg*
 
tza schrieb:
Man darf dabei nicht vergessen das ganz besonders in diesen Bereichen nicht nur Technische Leistung zählt sondern auch Werbung und persönliche Präferenz. Diese beeinflusst extrem das Kaufverhalten - besonders derer die nicht perfekt informiert sind was einen Großteil der Kunden ausmacht. Diese Kaufen aufgrund ihrer eigenen Überzeugung oder der anderer - also auf Empfehlung. Daher wird NVidia nicht so schnell echte Probleme bekommen. Ein Umschwung ist da sehr langsam. Dazu kommt nun die direkte Kopplung mit dem AMD Logo/Namen der eben nicht für die Performancekrone steht. So sind es viele Kleinigkeiten die dann zum Kauf führen die zu größeren Teilen nicht von Verbrauchs/Leistungsfragen dominiert werden. Diese Klientel macht nur geringe Teile aus. Genug Psychologie ;), ich freue mich drauf und bin durchaus bereit zu wechseln wenn das Packet stimmt - dazu gehört aber auch Verfügbarkeit.
Das ist richtig.
Deshalb ist es für AMD sehr erfolgreich, wenn sie mit der 6000er-Serie auch noch die Single-GPU-Performance-Krone erhalten.
Sowie das Flimmern im AF wegbekommen. Immerhin ist die AF-Blume perfekt.
Und ein (besseren) Optimus-Konkurrenten sollen es auch noch geben, was dann auch den Notebook-Markt etwas mehr beflügeln kann.

South-Island alias North-Island soll eine neue Architektur werden. Da könnten in Sachen Spiele-Qualität und GPGPU-Techniken mehr passieren, als man jetzt vermuten könnte.

Es wird sehr interessant.
 
Zurück
Oben