Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon HD 6700 mit 256-Bit-Speicherinterface?
- Ersteller MichaG
- Erstellt am
- Zur News: Radeon HD 6700 mit 256-Bit-Speicherinterface?
was die zeigen ohne Brille ist eh nur Müll,das funktioniert einfach nicht richtig.vielleicht in 10 Jahren,und ne shutterbrille ist sehr bequem, kannst sogar wunderbar über die normale überziehen.da 3d ein event Feature ist stört so eine Brille auch garnicht,man soll ja nicht ständig allen Müll im TV in 3d sehen.hier gehst um das mega erlebnis in 3d filmen bluray 3d und in games.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
https://www.computerbase.de/2010-09/philips-zeigt-3d-fernseher-ohne-brille/
Avatar ist ja noch nichtmal in 3D da(2011), es gibt kaum 3D Filme, geschweige denn richtig gute 3D TV. Nächstes Jahr zb. HD 7000 oder übernächstes ist ein guter Zeitpunkt für ATI äh AMD auf den 3D Zug aufzuspringen...
Avatar ist ja noch nichtmal in 3D da(2011), es gibt kaum 3D Filme, geschweige denn richtig gute 3D TV. Nächstes Jahr zb. HD 7000 oder übernächstes ist ein guter Zeitpunkt für ATI äh AMD auf den 3D Zug aufzuspringen...
dann ist es zu spät für amd. nvidia wird mit 3d vision den gesamten 3d PC Markt beherrschen.fast alle Notebooks, die jetzt kommen haben 3d Vision an bord,und im Desktop gibt es keine alternative.ab ende September wird 3d Vision ausgeweitet auf die 3d tvs aller Hersteller.die Features werden den Markt entscheiden,amd hat hier den Anschluss an die 3d Revolution schon verpasst.
Mortiss
Banned
- Registriert
- Feb. 2003
- Beiträge
- 2.088
casul schrieb:Was soll ati schon auf die beine stellen,die karten werden genauso sein wie die hd 5000 serie nur etwas schneller.nur noch auf grafik zu setzen ist aber der falsche weg,nvidia geht den richtigen weg mit physx und 3d vision darin liegt das potenzial der zukunft,nicht in punktesammeln im vantage.
Der ursprüngliche Beitrag, bei dem angenommen wird, dass ein properitäres System wie Nvidia 3D-Vision oder Physx der Stand der Zukunft ist. Ich erinnere gerne an Nvidias allererste Grafikkarte oder gar die Shutterbrille "Elsa Revelator" - properitäre Produkte, die schnell untergegangen sind.
Mortiss schrieb:Na da kennt sich aber einer aus.. mein lieber Scholli...
Schade, dass es noch kein DirectX11 und die damit verbundene Unterstützung von DirectCompute gibt. Warten wir mal, bis die Grafikkartenhersteller bald einheitlich GPGPU unterstützen. Bis dahin gillt es natürlich, Verfechter von properitären Lösungen zu sein, die noch mit Shutterbrille laufen. Pfui
Ohne den Saft im Kessel bringt auch die neueste Neuerung nix. Rein garnix
Damit spreche ich an, dass es (ironischerweise) natürlich noch kein DX11 gibt - und die Features, die DX11 mitbringt. Wer hier nicht versteht, dass ich mich sehr wohl damit auskenne und beschäftige - schade. Ich werde den Teufel tun, und etwas kommentieren, wozu ich keinerlei blassen Schimmer habe.
DX11 kommt primär von der Hardware. Du kannst keine TnT 1 Grafikkarte mit DX11-Software betreiben, um Unterstützung für DirectCompute zu erhalten. Also ist die kommende Klausel, dass es noch keine unterstützende Software gibt, die DirectCompute nutzen kann, schlichtweg überflüssig. Fakt
DvP schrieb:
DX11 gibt es und DirectCompute ist natürlich auch fertig, weil in DX11 integriert. Es gibt nur noch keine Software die darauf aufbaut. Zumindest hab ich noch keine gesehen. Interessant ist aber, dass die neue CryEngine sogar auf ComputeShader setzen wird. Diese sollen übrigens auch auf DX10 Karten laufen:
http://www.pcgameshardware.de/aid,7...ust-und-8-Kern-Optimierung/Action-Spiel/Test/
Hier versuchst du mir DX11 zu erklären. Schlussfolgernd hast du also den vorherigen Post von mir schlichtweg missverstanden. Ab hier geht das Theater dann los.
Mortiss schrieb:Dir ist klar, dass ich anhand meiner Argumentation die Hardwareseitige Unterstützung für diese Technologien meine? Oder nenne ich diverse Software, die dies nutzt? Nein?... seltsam
... danke? .... bitte! -.-
Mal im Ernst.. das "" setzt deinem Beitrag eine negative Nuance auf, die meinem Beitrag nicht zugeordnet werden kann.
Hier gehe ich darauf ein, DASS du mich offenbar falsch verstanden hast. Wie gesagt - als ob mir nicht bewusst ist, dass die Software DirectCompute... ach lassen wir das - du solltest es nun verstehen, da ich das nochmal von Anfang an durchkaue.
DvP schrieb:Ehrlich gesagt hab ich keine Ahnung wovon du redest, drum frag ich jetzt ganz artig nach. Ich erkenne eben keine nachvollziehbare Argumentation und erst recht keine die Sinn macht. Sorry!
Zur Erklärung: AMD und NV unterstützen über DX11 sehr wohl einheitlich GPGPU und zwar (natürlich) hardwareseitig. Außerdem weiß ich nicht was Shutterbrillen damit zu tun haben sollen!?
Hier verstehe ich nich, was du nun genau möchtest. Es ist eher nicht nachvollziehbar, dass du etwas, was du ohnehin missverstanden hast, nochmals irgendwie.. erläutern möchtest.
Was Schutterbrillen damit zu tun haben? das fragst du besser den user Casul - der 3D-Vision mit in unsere Diskussion hier mit einbezieht. Die gesamte Diskussion beruht beinahe darauf, dass 3D-Vision sowie Physx mehr wert sein sollen, als DX11. (Die Stelle, wo du nicht verstanden hast, dass ich mich doch gut genug mit der Materie auskenne)
Mortiss schrieb:Ein bisschen Zynismus und schon bist du nicht mehr in der Lage, einen Satz zu verstehen. Und den Drops solltest du gewissenhaft lutschen.
Und nun bitte zurück zum Thema, bevor die uns beide ins Aquarium stecken.
Hauptsache du packst nen Freak in deinen Beitrag, wo dir bewusst ist, dass jeder, der das liest, genau DAMIT asoziiert, dass ich einen an der Waffenl habe. Ich äußere mich nicht weiter dazu. Frag die anderen, die es etwas mehr mit der Geduld haben.
Gibt es 3D-Vision aktuell als Lösung ohne Shutter- bzw. 3D-Brille? Wenn ja dann fresse ich nen Besen. Wenn nein, sollte dein nächster Gesprächspartner viieeel Geduld mitbringen. Echt.. was soll sowas?
Ich bitte dich... darunter leidet die Qualität des Forums.
In meinem ersten Beitrag habe ich mit meiner Ironie darauf angespielt, DASS es bereits hardwareseitige Unterstützung von GPGPU gibt, welche mangels fehlender Software nicht nutzbar ist. Und da fängt doch das Theater hier an, da du gerade diesen Beitrag nicht zu verstehen scheinst..
Dabei diffamierst du (ggf. Aus Unwissen) dann andere Mitglieder im Forum.
Dies ist eine Feststellung, da ich nicht in der Lage war, irgendwie in ein Gespräch mit dir zu kommen. An wem das scheiterte, konkretisiere ich an dieser Stelle nicht.
DvP schrieb:@ Mortiss
Tja, ist auch eine Möglichkeit die eigenen Beiträge durch Ausdrücke wie Zynismus und Ironie zu rechtfertigen, nachdem sie aufgrund wahllos zusammengeworfener Themen und Features jeder Sinnhaftigkeit entbehren. Gratulation! Und ja, das ist jetzt eine Diffamierung, aber diese kann ich durchaus rechtfertigen, vor allem nachdem ich höflich nachgefragt habe, als der Kuddelmuddel Überhand genommen hat.
Ich wüsste nicht wo ich mich großartig auf 3D-Vision und Shutterbrillen bezogen hätte, da ich vorher schon nicht nachvollziehen konnte, wie du diese mit GPGPU und DX11 in Bezug setzen wolltest.
Edit:
Ohne Smileys war der Sarkasmus (wie du es jetzt nennst) nicht zu verstehen und hat nur zusätzlich zum generellen Unverständnis gegenüber deiner Aussage beigetragen.
Was GPGPU und DX11 miteinander zu tun haben, kannst du gerne recherchieren. Nimm da z.B. Google zur Hilfe.
Für weitere Fragen und Anregungen schreibst du mich besser per PN an - ich werd hierzu nichts weiter schreiben.
Gruß
Mortiss
Jok3er
Lt. Commander
- Registriert
- Okt. 2009
- Beiträge
- 1.767
Also ich finde es nicht verwunderlich da sich gezeigt hat das der (5000er chip) noch sehr viel Reserven hat wen man sich die geringe Leistungsaufnahme anguckt, da kann das Konkurrenzprodukt nicht mehr viel reißen. Dan kann man davon ausgehen das die Leistungsaufnahme bei den 6000er steigt, wie weit kann natürlich niemand sagen. ABER es kann auch sein das AMD in der Zeit einen völlig neuen Chip entwickelt hat und uns und die Konkurrenz überraschen wird.
Ich persönlich gehe davon aus das AMD die "5800er" etwas angeglichen hat und die Performance der GTX480 übersteigt.
Ich persönlich gehe davon aus das AMD die "5800er" etwas angeglichen hat und die Performance der GTX480 übersteigt.
Zuletzt bearbeitet:
3d gibt nen kleinen Hype, da man es aber nicht kostenlos mit geliefert bekommt wird es wohl nur eine Nischengeschichte bleiben mal beim PC. Außer Nvidia verkauft seine Karten zu halbwegs konkurenzfähigen preisen mit standardmäsig Brille dabei. Auf kopfweh oder ständig blille auf bzw Monitor muss man auch erst mal haben der dafür taugt... kann ich auch verzichten, werden wohl die meisten können.
Selbst Physix ist ein Rohrkrepierer wo nur bei ein paar Spielen absolut unspektakuläre kleine optische Effekte dazu gekommen sind, obwohl es ja jede Nvidia karte ohne Zusatzhardware kann. Gut die kleine Nische mag Nvidia erstmal Gewinnen, aber dafür geben sie die Breite Masse auf und kriegen keinen Fuss mehr im Massenmarkt in die Tür. Zumindest so wie es jetzt aussieht, und das selbst gilt ja auch für 3d also ist diese Prognose genauso legitim wie das 3d Gerede.
Selbst Physix ist ein Rohrkrepierer wo nur bei ein paar Spielen absolut unspektakuläre kleine optische Effekte dazu gekommen sind, obwohl es ja jede Nvidia karte ohne Zusatzhardware kann. Gut die kleine Nische mag Nvidia erstmal Gewinnen, aber dafür geben sie die Breite Masse auf und kriegen keinen Fuss mehr im Massenmarkt in die Tür. Zumindest so wie es jetzt aussieht, und das selbst gilt ja auch für 3d also ist diese Prognose genauso legitim wie das 3d Gerede.
@casul
Ich verstehe deine Beiträge nicht wirklich.
1. Deine Beiträge lassen sich schon Aufgrund deiner Rechtschreibung schwer lesen.
2. Argumentierst du nur mit Spezifikationen die Nvidia hat, lässt aber Spezifikationen die AMD hat völlig unter den Tisch fallen.
3. Hat AMD Nvidia auf dem Markt nicht nur eingeholt, sondern auch überholt. Wie passt dies mit deiner Argumentation zusammen die besagt, dass AMD Marktanteile verliert?
4. Sind doch solche Beiträge von einem User, die praktisch wenig Substanz haben keine Bereicherung, sondern stellen dich doch persönlich durch dein eigenes Verschulden in die Dunkelkammer.
5. Wirst du bestimmt nicht einmal einen Kugelschreiber von Nvidia geschenkt bekommen wegen deiner Beiträge, die so abwertend gegenüber AMD sind.
Was willst du also damit erreichen?
Ich verstehe deine Beiträge nicht wirklich.
1. Deine Beiträge lassen sich schon Aufgrund deiner Rechtschreibung schwer lesen.
2. Argumentierst du nur mit Spezifikationen die Nvidia hat, lässt aber Spezifikationen die AMD hat völlig unter den Tisch fallen.
3. Hat AMD Nvidia auf dem Markt nicht nur eingeholt, sondern auch überholt. Wie passt dies mit deiner Argumentation zusammen die besagt, dass AMD Marktanteile verliert?
4. Sind doch solche Beiträge von einem User, die praktisch wenig Substanz haben keine Bereicherung, sondern stellen dich doch persönlich durch dein eigenes Verschulden in die Dunkelkammer.
5. Wirst du bestimmt nicht einmal einen Kugelschreiber von Nvidia geschenkt bekommen wegen deiner Beiträge, die so abwertend gegenüber AMD sind.
Was willst du also damit erreichen?
Tulol
Vice Admiral
- Registriert
- Jan. 2004
- Beiträge
- 6.712
aklaa schrieb:PhysX kann bis jetzt Nvidia und schätze die 6er wird es nicht haben. Bis dahin verbleibe ich weiter bei der 5er ;-)
PhysiX sowie 3DVision, ist und bleibt auch, dank nVidias Politik ein Technik Exot. Nichts was die Zeit überdauern oder jemals eine nennenswerte Relevanz haben wird, aber nett sein wird um sich daran zu erinnern, was es mal für 'lustiges' Zeug gab.
Erinnert sich noch wer an Glide? Oder an S3D? Oder gar an das VFX-1? Nein? Na sowas! Wer kennt alles OpenGL und Direct3D(teil von DirectX)?
Selbes Problem mit EAX. Wie lange hats das schon? Und wie groß ist heute dessen Bedeutung? MS hat Creative gezeigt wie unwichtig eine Propritäre Schnittstelle für Hardware ist, in dem sie DirectSound und somit die direkte unterstützung des Betriebssystems von Hardwaresound seit Vista Gestrichen haben. Ergebniss ist die ALchemy Krücke die den (derzeit notwendigen) Umweg über OpenAL nimmt.
Und das obwohl Creative mit ihren Soundkarten über ein Jahrzehnt lang die wohl denkbar beste Ausgangsposition hatte, um ihren Willen durch zu setzen.
Ati/AMD ist auf dem absolut richtigen Weg eine offene, herstellerunabhängige Schnittstelle für all diese Techniken zu unterstützen.
Zuletzt bearbeitet:
Hexenkönig
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 716
@Casul:
Glaubst du das, was du da schreibst selbst?
NVidia wird die Weltherrschaft an sich reißen und alle AMD-User werden weinend vor ihren Rechnern sitzen und die 3d-Revolution von NVidia versäumen..?
Das ist richtig niedlich.
Ich habe Mafia 2 und Batman Arkham Asylum auf dem Rechner eines Freundes gespielt.
Mit aktivierter PhysX-Option.
Wir waren und sind beide der Meinung, dass es zwar bemerkbar, aber nicht wirklich wichtig ist, was dieses Feature bewirkt.
Und dass ist es, ein Feature. Eine Eigenschaft von vielen. Eine kleine Dreingabe des Herstellers, die marketingtechnisch völlig überhöht wurde und wird.
Das ist, als würde Saab den in der Mittelkonsole liegenden Zündschlüssel in einer Reihe mit dem ABS, den Airbags und den Leistungsdaten des Motors nennen.
Tun sie aber nicht. Warum?
Weil es ein nettes Gimmick ist, dass dir im Falle eines Crashes unter Umständen dein rechtes (bei fast allen Autos) oder linkes (bei Porsche und Alfa Romeo) Knie retten könnte...mehr aber auch nicht.
Und 3d-Vision? Ich setz dann also in Zukunft zum Spielen mein Headset auf, setz mir eine 3d-Brille auf und schnall mich auf meinem Stuhl fest, weil das Rumble-Pack, dass es zu Far Cry 35 dazu gibt, mich sonst vom Sessel fegt?
Casul...werd erwachsen. Lies mehrere Artikel über einen Gegenstand, nicht nur die Herstellerseite. Lies Argumente, die deiner Meinung nicht entsprechen und nimm sie nicht als Angriff auf deine bezaubernde, zerbrechliche Persönlichkeit, sondern als mehr oder minder gut formulierte Sachlage, die es unter Umständen zu berücksichtigen gilt.
Und bild dir mal eine eigene Meinung.
Du klingst, als hättest du eine NVidia-Werbe-Broschüre auswendig gelernt.
Glaubst du das, was du da schreibst selbst?
NVidia wird die Weltherrschaft an sich reißen und alle AMD-User werden weinend vor ihren Rechnern sitzen und die 3d-Revolution von NVidia versäumen..?
Das ist richtig niedlich.
Ich habe Mafia 2 und Batman Arkham Asylum auf dem Rechner eines Freundes gespielt.
Mit aktivierter PhysX-Option.
Wir waren und sind beide der Meinung, dass es zwar bemerkbar, aber nicht wirklich wichtig ist, was dieses Feature bewirkt.
Und dass ist es, ein Feature. Eine Eigenschaft von vielen. Eine kleine Dreingabe des Herstellers, die marketingtechnisch völlig überhöht wurde und wird.
Das ist, als würde Saab den in der Mittelkonsole liegenden Zündschlüssel in einer Reihe mit dem ABS, den Airbags und den Leistungsdaten des Motors nennen.
Tun sie aber nicht. Warum?
Weil es ein nettes Gimmick ist, dass dir im Falle eines Crashes unter Umständen dein rechtes (bei fast allen Autos) oder linkes (bei Porsche und Alfa Romeo) Knie retten könnte...mehr aber auch nicht.
Und 3d-Vision? Ich setz dann also in Zukunft zum Spielen mein Headset auf, setz mir eine 3d-Brille auf und schnall mich auf meinem Stuhl fest, weil das Rumble-Pack, dass es zu Far Cry 35 dazu gibt, mich sonst vom Sessel fegt?
Casul...werd erwachsen. Lies mehrere Artikel über einen Gegenstand, nicht nur die Herstellerseite. Lies Argumente, die deiner Meinung nicht entsprechen und nimm sie nicht als Angriff auf deine bezaubernde, zerbrechliche Persönlichkeit, sondern als mehr oder minder gut formulierte Sachlage, die es unter Umständen zu berücksichtigen gilt.
Und bild dir mal eine eigene Meinung.
Du klingst, als hättest du eine NVidia-Werbe-Broschüre auswendig gelernt.
Tekpoint
Admiral
- Registriert
- Juni 2007
- Beiträge
- 9.353
@casul:
Ich glaube wenn ich dir zwei Rechner hinstelle in ein ein Intel CPU i5 760 und in den andren ein AMD Phenom2 X5 965 ohne das du je weisst wo welcher drin ist. Wirst du keine Unterschied bemerken.
Es gibt viel Server über die wir sogar schreiben eventuelle und Supercomputer in der Welt die mit AMD Server CPUs verbaut sind und werkeln.
Außerdem ist AMD in Serverbereich besser meiner Erachtens, da es bei AMD schon 8 bzw. 12 Kerner gibt was Intel noch nicht so hat. Da kommt der erste 10 Kerner erst aber bis der da ist gibt es vielleicht schon 16Kerner von AMD.
Ich glaube wenn ich dir zwei Rechner hinstelle in ein ein Intel CPU i5 760 und in den andren ein AMD Phenom2 X5 965 ohne das du je weisst wo welcher drin ist. Wirst du keine Unterschied bemerken.
Es gibt viel Server über die wir sogar schreiben eventuelle und Supercomputer in der Welt die mit AMD Server CPUs verbaut sind und werkeln.
Außerdem ist AMD in Serverbereich besser meiner Erachtens, da es bei AMD schon 8 bzw. 12 Kerner gibt was Intel noch nicht so hat. Da kommt der erste 10 Kerner erst aber bis der da ist gibt es vielleicht schon 16Kerner von AMD.
Hexenkönig schrieb:@Casul:
Das ist richtig niedlich.
Ich habe Mafia 2 und Batman Arkham Asylum auf dem Rechner eines Freundes gespielt.
Mit aktivierter PhysX-Option.
Wir waren und sind beide der Meinung, dass es zwar bemerkbar, aber nicht wirklich wichtig ist, was dieses Feature bewirkt.
Und dass ist es, ein Feature. Eine Eigenschaft von vielen. Eine kleine Dreingabe des Herstellers, die marketingtechnisch völlig überhöht wurde und wird.
/QUOTE]
Physx halbiert die FPS-Zahl da kann man sich genauso gut CRYSIS auf ner GT6600 geben.
Grafikfeatures dürfen nicht dermassen stark auf die performance gehen und schon garnicht wenn es so ausschaut wie Physx ! Unrealistisches , hardwarefressendes zeug ist das.
Verstehe nicht wie man nur ein einziges positives Wort über dieses feature verlieren kann,
M
MC BigMac
Gast
Spekulationen bringen hier nichts, ich finde das die Speicherbandbreite mal sehr erhöht werden muss, nicht 256MBit sonder 1024Mbit, das wäre mal eine Rakete und statt so viele Grafikkarten mit unterschiedlichen Leistungen, für jedes Marktsegment eine gute und das reicht schon, Nvidia hat nicht nachziehen können in dieser Runde, auch wenn die GTX460 besser ist als HD5770, mehr bietet sie mir persönlich nicht, auf PhysikX kann ich gut und gerne verzichten, bringt mir kein Spielspaß mehr. Bin und das behauptet ich ganz stark nicht so Grafik geil, wie manche andere, eben ein Zocker der alten Schule.
@ DvP: Mcih würde eher der Leistungsunterschied zwischen 6k und 7k interessieren. Und der Uncore-Bereich wurde bei der 6k deutlich angehoben, also warum dann nicht vermuten, dass ATI hier direkt Wert auf Tesslation und DX11 legt? Einzig und allein der Flaschenhals der 5k Serie führt dazu, dass NV bis jetzt im Bereich DX11/TES die Nase vorn hat. Also warum dann noch weiter Leistung hinzufügen, indem aufgebohrt wird, die Leistung zunimmt und man letztendlich bei 40nm vlt. gleichauf mit nv oder kurz drüber liegt?
Bis Tesselation richtig zum einsatz kommt ist HD8000 draussen.
Eine GTX480 mag zwar hier etwas schneller sein als HD5870, aber für zukünftige Spiele wo Tess richtig zum einsatz kommt wird es nie und nimmer reichen... es sei den man gibt sich mit 15 FPS zufrieden.
Die GTX480 ist sowieso für die katz,heisser als das feuer in der hölle, laut, stromfressend und nichteinmal vernünftige bzw. ausreichende leistung für Tess ! Wer braucht den bitteschön sowas ?
Erst die nächste bzw. übernächste Gen wird in der lage sein anständige Tess-performance in zu liefern,
Wenn die HD6xxx erscheint ist NVIDIA in allen punkten (stromverbrauch, leistung,temperatur,lautstärke) der klare verlierer, da muss man kein hellseher sein um das zu wissen.
Eine GTX480 mag zwar hier etwas schneller sein als HD5870, aber für zukünftige Spiele wo Tess richtig zum einsatz kommt wird es nie und nimmer reichen... es sei den man gibt sich mit 15 FPS zufrieden.
Die GTX480 ist sowieso für die katz,heisser als das feuer in der hölle, laut, stromfressend und nichteinmal vernünftige bzw. ausreichende leistung für Tess ! Wer braucht den bitteschön sowas ?
Erst die nächste bzw. übernächste Gen wird in der lage sein anständige Tess-performance in zu liefern,
Wenn die HD6xxx erscheint ist NVIDIA in allen punkten (stromverbrauch, leistung,temperatur,lautstärke) der klare verlierer, da muss man kein hellseher sein um das zu wissen.
Zuletzt bearbeitet:
Tekpoint
Admiral
- Registriert
- Juni 2007
- Beiträge
- 9.353
@MC BigMac: 1024bit Speicheranbindung wäre schon mal was feines^^ Müsste ja auch zu gute kommen bei den Stromverbrauch da die VRAM nicht hoch getaktet werden müssen dann mehr um genauso das selbe zuerreichen wie bei 512 oder 256bit.
Nur wird das bestimmt teurer wieder weil mehr VRAM verbaut werden müssen.
Auch und 1024Mbit Speicheranbindung sind wa glaube noch um 30 Jahre locker zurück bis das kommt^^
Nur wird das bestimmt teurer wieder weil mehr VRAM verbaut werden müssen.
Auch und 1024Mbit Speicheranbindung sind wa glaube noch um 30 Jahre locker zurück bis das kommt^^
Zuletzt bearbeitet:
Sephiroth51
Lt. Commander
- Registriert
- Mai 2009
- Beiträge
- 1.667
Also mal vorne weg ich bin Saturn-Arbeiter. Und bis jetzt habe ich fast nur AMD/ATi Karten verkauft und hatten kaum Notebooks mit 3D Vision, davon mal abgesehn kann doch AMD 3D Stereoskopisch darstellen, und ich kenne kaum jemanden der ein 3D Monitor oder Fernsehr kauft, daher hat meiner meinung nach AMD überhaupt nicht verpennt, das einzige was doch Nvidia wirklich besser macht ist zu zeigen wie man es nicht macht xD ^^
Ne scherz beiseite aber das einzige was Nvidia hat und was AMD nicht hat ist CUDA(hat AMD schon bloß über einer freien Plattform was meiner meinung nach die Zukunft ist was CUDA wieder nur zu einen Nischenprodukt macht) das weitere wirkliche wichtige ist PhysX in dem Sie damals Ageia aufgekauft haben, na ja also es gibt eine handvoll Spiele die das besitzen und da sieht es nicht schlecht aus na ja stimmt und alle KOnsolen haben PhysX unterstützung wobei aber 2 von 3 auf AMD Karten setzen Nintendo Wii und Xbox360 ^^.
Na ja das WIRKLICHE WICHTIGE was Nvidia hat ist die WERBUNG in den SPielen und eben IHREN EINFLUSS bei Software Herrsteler ansonsten hat Nvidia eine Zukunft aufgebaut die vom Scheitern verurteilt da es geschlossene features sind. AMD macht bis jetzt alles Richtig, vor allem im Mobilen markt, da gibt es ja noch nichtmal konkurrenz nur bei den Grpßen Laptops WO MAL eine 4XX Nvidia drinn ist aber im großen und ganzen ist AMD viel stärker vertreten was Grakas anbelangt sind ja auch tolle teile xD ^^ Ich muss sagen ich hatte schon die Vodoo 5 gehabt dann jahre Lang Nvidia die ja (3Dfx aufgekauft haben) und dann bin seit 3 Jahren bei ATi und bis jetzt gibt es keinen grund zu wechseln da einfach da alles stimmt abgesehn von paar kleinigkeiten aber da AMD immer mehr Marktanteile gewinnt sind die sachen wie PhysX und CUDA und 3D Vision sowieso vom Scheitern verurteilt, und die Software Hersteller werden dann mehr auf AMD setzen als auf NVidia und das hat alles einen gemeinsamen Grund da dann von 100 Leuten 70 AMD haben und 30 Nvidia karten haben und das ergibt sich dann ganz logisch. Das die Features tot gehen also die Lizenzierten und die offenen die zukunft werden oder sind. ^^ Also das mit den 100 Leuten ist jetzt nur mal so pauschal gesagt ^^. Aber nicht destotrotz will ich nicht auf Nvidia verzichten müssen als Konkurrenz oder vielleicht bald wieder besserer grafikkartenhersteller in 5 jahren oder später xD ^^ (ich hoffe es tut sich jemand an meine Bibel zu lesen was meine meinung ist desganzen) ^^
Ne scherz beiseite aber das einzige was Nvidia hat und was AMD nicht hat ist CUDA(hat AMD schon bloß über einer freien Plattform was meiner meinung nach die Zukunft ist was CUDA wieder nur zu einen Nischenprodukt macht) das weitere wirkliche wichtige ist PhysX in dem Sie damals Ageia aufgekauft haben, na ja also es gibt eine handvoll Spiele die das besitzen und da sieht es nicht schlecht aus na ja stimmt und alle KOnsolen haben PhysX unterstützung wobei aber 2 von 3 auf AMD Karten setzen Nintendo Wii und Xbox360 ^^.
Na ja das WIRKLICHE WICHTIGE was Nvidia hat ist die WERBUNG in den SPielen und eben IHREN EINFLUSS bei Software Herrsteler ansonsten hat Nvidia eine Zukunft aufgebaut die vom Scheitern verurteilt da es geschlossene features sind. AMD macht bis jetzt alles Richtig, vor allem im Mobilen markt, da gibt es ja noch nichtmal konkurrenz nur bei den Grpßen Laptops WO MAL eine 4XX Nvidia drinn ist aber im großen und ganzen ist AMD viel stärker vertreten was Grakas anbelangt sind ja auch tolle teile xD ^^ Ich muss sagen ich hatte schon die Vodoo 5 gehabt dann jahre Lang Nvidia die ja (3Dfx aufgekauft haben) und dann bin seit 3 Jahren bei ATi und bis jetzt gibt es keinen grund zu wechseln da einfach da alles stimmt abgesehn von paar kleinigkeiten aber da AMD immer mehr Marktanteile gewinnt sind die sachen wie PhysX und CUDA und 3D Vision sowieso vom Scheitern verurteilt, und die Software Hersteller werden dann mehr auf AMD setzen als auf NVidia und das hat alles einen gemeinsamen Grund da dann von 100 Leuten 70 AMD haben und 30 Nvidia karten haben und das ergibt sich dann ganz logisch. Das die Features tot gehen also die Lizenzierten und die offenen die zukunft werden oder sind. ^^ Also das mit den 100 Leuten ist jetzt nur mal so pauschal gesagt ^^. Aber nicht destotrotz will ich nicht auf Nvidia verzichten müssen als Konkurrenz oder vielleicht bald wieder besserer grafikkartenhersteller in 5 jahren oder später xD ^^ (ich hoffe es tut sich jemand an meine Bibel zu lesen was meine meinung ist desganzen) ^^
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Sag deinem Chef lieber mal, er soll AMD Prozessoren anbieten.
Um Physx und 3D gehts in der kompletten News nicht, auch wenn du es gut meinst.
Gruß Schaffe89
BTW DAs mit dem 256bit Interface halte ich für unwahrscheinlich, wenn schnellerer GDDR5 verfügbar ist.
Der GDDR5 mag zwar teurer sein, allerdings kostet er auch weniger Platz auf dem Die, als 128bit mehr SI.
Um Physx und 3D gehts in der kompletten News nicht, auch wenn du es gut meinst.
Gruß Schaffe89
BTW DAs mit dem 256bit Interface halte ich für unwahrscheinlich, wenn schnellerer GDDR5 verfügbar ist.
Der GDDR5 mag zwar teurer sein, allerdings kostet er auch weniger Platz auf dem Die, als 128bit mehr SI.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
casul schrieb:@philad sag mal glaubst du den Schrott den du schreibst?wie kannst du was über 3d schreiben und ohne es wirklich je ausprobiert zu haben.wenn amd so weitermacht sind die bald weg vom Fenster,die verpennen den Megatrend der nächsten Jahre.
Da hast du dein 3D, und das ist nur der Anfang. Bis Weihnachten wird da noch so einiges kommen. Mal davon abgesehen, dass sich das sowieso erst durchsetzt, wenn man keine Brille mehr braucht.
Anderen Fanboytum vorwerfen und dabei selbst den größten Forentroll abgeben. man ey
Im übrigen hatte ich schon anno 2000 das Vergnügen, bis NVIDIA sich überlegt hat dass sie keine aktuellen Treiber mehr bereit stellen wollen. Schönen DANK! NIEVIDIA
ToniSancezZ
Lt. Junior Grade
- Registriert
- Jan. 2009
- Beiträge
- 259
hoffentlich kommt demnächst die 6700 Reihe damit die 5870 günstiger wird... Ich hätte gern wieder den Preis Kampf von Nidia und Ati (AMD)
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 3.372
- Antworten
- 57
- Aufrufe
- 5.373