News Radeon HD 6700 mit 256-Bit-Speicherinterface?

DvP schrieb:
:freak:

DX11 gibt es und DirectCompute ist natürlich auch fertig, weil in DX11 integriert. Es gibt nur noch keine Software die darauf aufbaut. Zumindest hab ich noch keine gesehen. Interessant ist aber, dass die neue CryEngine sogar auf ComputeShader setzen wird. Diese sollen übrigens auch auf DX10 Karten laufen:

http://www.pcgameshardware.de/aid,7...ust-und-8-Kern-Optimierung/Action-Spiel/Test/

Dir ist klar, dass ich anhand meiner Argumentation die Hardwareseitige Unterstützung für diese Technologien meine? Oder nenne ich diverse Software, die dies nutzt? Nein?... seltsam :freak:


... danke? .... bitte! -.-


Mal im Ernst.. das ":freak:" setzt deinem Beitrag eine negative Nuance auf, die meinem Beitrag nicht zugeordnet werden kann.
 
Zuletzt bearbeitet:
PaLLeR schrieb:
Mit 1600Mhz?! Auf den Kühler bin ich gespannt

Beim Speicher braucht man nicht unbedingt besseren Kühler, wenn man 1600 MHz nutzt.
Bei GPU wärs schon anders gewesen. Da würde Kontakt zum Kühlkörper, oder kleine passive Kühler ausreichend.
 
casul schrieb:
Ist immer wieder das selbe gerede von ati fans,physx wird es auch noch in 5 jahren geben und 3d vision ebendso!ati redet doch nur über ihren offenen standard aber wo kann man was kaufen,3d vision kannst an fast jeden stand der ifa testen und wo ist der offene standard von ati?nvidia hat die besten verbindungen zu den grossen software herstellern,die werden immer nen weg finden pysyx ins spiel reinzubekommen.ich möchte erstmal die zukunftstrends auf ati seite sehen und nicht nur gerede von offenen standards,die nirgends zu kaufen sind.grafik alleine wird in der zukunft nicht mehr alleine reichen!

Also bitte mal etwas mehr auf Rechtschreibung und so achten.
Du kannst sie auf der IFA antesten die Technik? TOLL!!!! Da du das so betonst hast du sie wohl 1. nicht zu Hause und 2. triffst du genau meinen Punkt. Du hast dich von der NV Marketingstrategie perfekt einlullen lassen. Das machen die gut Sstimmt.
PhysX wird es in 5 Jahren geben, stimmt, wenn du dann wieder Mafia 2 auspackst und dich wunderst, wie man nur glauben konnte, dass das toll ist ;)
 
Mortiss schrieb:
Schade, dass es noch kein DirectX11 und die damit verbundene Unterstützung von DirectCompute gibt. Warten wir mal, bis die Grafikkartenhersteller bald einheitlich GPGPU unterstützen. Bis dahin gillt es natürlich, Verfechter von properitären Lösungen zu sein, die noch mit Shutterbrille laufen. Pfui

Mortiss schrieb:
Dir ist klar, dass ich anhand meiner Argumentation die Hardwareseitige Unterstützung für diese Technologien meine? Oder nenne ich diverse Software, die dies nutzt? Nein?... seltsam

Ehrlich gesagt hab ich keine Ahnung wovon du redest, drum frag ich jetzt ganz artig nach. Ich erkenne eben keine nachvollziehbare Argumentation und erst recht keine die Sinn macht. Sorry!

Zur Erklärung: AMD und NV unterstützen über DX11 sehr wohl einheitlich GPGPU und zwar (natürlich) hardwareseitig. Außerdem weiß ich nicht was Shutterbrillen damit zu tun haben sollen!?
 
Meine Vermutung ist, dass diese News ne Ente ist. Ein 256bit SI würde den Stromverbrauch unnötig erhöhen. Genauso wie die Vermutung, die HD6870 hätte ein 384bit breites SI. Völlig aus der Luft gegriffen.

An den Beratungsresistenten:
Bitte versuch beim nächsten Post, nach Satzzeichen ein Leerzeichen zu setzen.
 
DvP schrieb:
Ehrlich gesagt hab ich keine Ahnung wovon du redest, drum frag ich jetzt ganz artig nach. Ich erkenne eben keine nachvollziehbare Argumentation und erst recht keine die Sinn macht. Sorry!

Zur Erklärung: AMD und NV unterstützen über DX11 sehr wohl einheitlich GPGPU und zwar (natürlich) hardwareseitig. Außerdem weiß ich nicht was Shutterbrillen damit zu tun haben sollen!?


Ein bisschen Zynismus und schon bist du nicht mehr in der Lage, einen Satz zu verstehen. Und den Drops solltest du gewissenhaft lutschen.

Und nun bitte zurück zum Thema, bevor die uns beide ins Aquarium stecken.

Hauptsache du packst nen Freak in deinen Beitrag, wo dir bewusst ist, dass jeder, der das liest, genau DAMIT asoziiert, dass ich einen an der Waffenl habe. Ich äußere mich nicht weiter dazu. Frag die anderen, die es etwas mehr mit der Geduld haben.

Gibt es 3D-Vision aktuell als Lösung ohne Shutter- bzw. 3D-Brille? Wenn ja dann fresse ich nen Besen. Wenn nein, sollte dein nächster Gesprächspartner viieeel Geduld mitbringen. Echt.. was soll sowas?


Ich bitte dich... darunter leidet die Qualität des Forums.

In meinem ersten Beitrag habe ich mit meiner Ironie darauf angespielt, DASS es bereits hardwareseitige Unterstützung von GPGPU gibt, welche mangels fehlender Software nicht nutzbar ist. Und da fängt doch das Theater hier an, da du gerade diesen Beitrag nicht zu verstehen scheinst..

Dabei diffamierst du (ggf. Aus Unwissen) dann andere Mitglieder im Forum.
 
Zuletzt bearbeitet:
@Mortiss: Sorry dass ich mich da einmische, aber deine Posts haben nicht mal nen Hauch von Zynismus.

@Fusi0n: cooles Avatar.
 
da bin ich mal gespannt was da so rauskommt^^
 
Raucherdackel schrieb:
@Mortiss: Sorry dass ich mich da einmische, aber deine Posts haben nicht mal nen Hauch von Zynismus...

Ah... sind wir also schon sehr weit weg vom eigentlichen Thema.. Gut gemacht.

Zugegeben habe ich zynismus offenbar mit sarkasmus verwechselt. Danke für die Richtigstellung.

Sollte aber weniger wichtig sein, da es hier um was ganz anderes geht :-)
 
@ Mortiss

Tja, ist auch eine Möglichkeit die eigenen Beiträge durch Ausdrücke wie Zynismus und Ironie zu rechtfertigen, nachdem sie aufgrund wahllos zusammengeworfener Themen und Features jeder Sinnhaftigkeit entbehren. Gratulation! Und ja, das ist jetzt eine Diffamierung, aber diese kann ich durchaus rechtfertigen, vor allem nachdem ich höflich nachgefragt habe, als der Kuddelmuddel Überhand genommen hat.
Ich wüsste nicht wo ich mich großartig auf 3D-Vision und Shutterbrillen bezogen hätte, da ich vorher schon nicht nachvollziehen konnte, wie du diese mit GPGPU und DX11 in Bezug setzen wolltest.

Edit:
Ohne Smileys war der Sarkasmus (wie du es jetzt nennst) nicht zu verstehen und hat nur zusätzlich zum generellen Unverständnis gegenüber deiner Aussage beigetragen.
 
Zuletzt bearbeitet:
Ich kann das Gerede um die 6000er Reihe langsam nicht mehr hören. Ich nehme mal stark an, dass die 6000er Reihe Nvidia im Bereich Tesslation/DX11 Konkurrenz machen soll und nicht, dass die bisherige Leistung der 5000er Reihe enorm gesteigert wird. Vor allem, wenn man bedenkt, dass Ende 2011 bereits Northern Islands kommen soll, die dann bereits in 28nm Technologie gefertigt werden sollen. Der Hybrid ist für mich völlig uninteressant, ich warte lieber auf die 7000er Reihe Ende 2011.
 
Dann werde ich wohl auf die HD6770 oder 6830 aufrüsten, mal schauen. Aber erstmal abwarten und Tee trinken sowie auf Benchmarks und Tests warten.
 
@ olo
Sofern wir annehmen, dass die bisherigen Benchmarkergebnisse stimmen, müsste man aber widersprechen. 3D Mark Vantage (beispielsweise) unterstützt maximal DX10.1 und auch hier ist der Performancesprung sehr deutlich.

@ blackiwid
Du kannst dir ja mal den Kontakt von Ron Taboga (über mir) speicher. Auf seine 5770 könnte sich das Umsteigen dann noch lohnen, wenn er dir einen guten Preis macht ;)
 
Zuletzt bearbeitet:
hmm ja warten kann man immer, kommt halt immer drauf an was du im Pc hast, ich hab ne poplige hd 4770 aber da ich noch nen popligeren amd x2 3800 (2ghz) benutze ist die gpu wohl ausreichend ^^

Leider ist die gpu im idle nicht gerade Stromsparend, das wäre der einzige Grund für ein aufrüsten, lohnt aber wohl auch nicht wirklich wegen paar watt mehr idle strom (20W oder so) auf solch ne neue Karte umzusteigen ^^ Zumal es kaum interessante Spiele gibt die viel Power brauchen. Vielleicht lässt mich Rage oder Portal 2 wieder nach mehr Power schielen, in der Zwischenzeit hol ich mir wohl mal ne SSD und lass den rest so wie er ist ;) Und warte auf nen vernüftiges AMD Netbook (Fusion oder so).

Zu der News:
256Bit halte ich auch für einen nicht gerade Typischen AMD Schritt, normal versucht AMD das Maximum an Leistung an kleinen Chips raus zu holen die dann ja auch deshalb billig sind und siegt dann über große Effizienzvorteile. Allerdings kann AMD ja den Takt vom Speicher nicht unednlich anheben bzw schluckt dieser dann ja auch irgendwann sehr viel Strom, und da irgendwann die Speicherbandbreite bei den doch sehr schnellen chips zunehmend limitiert, bleibt AMD wohl irgendwann (jetzt ^^) vielleicht nix anderes mehr üblich. Hoffe dann aber das AMD die GPU so überarbeitet hat das überflüssige Transistoren weg fallen und damit Platz für das größere Speicherinterface geschaffen wurde ohne die Chipgröße (wesentlich) zu vergrößern und der chip nicht mehr verbraucht.
 
Zuletzt bearbeitet:
blackiwid schrieb:
...Hoffe dann aber das AMD die GPU so überarbeitet hat das überflüssige Transistoren weg fallen und damit Platz für das größere Speicherinterface geschaffen wurde ohne die Chipgröße (wesentlich) zu vergrößern und der chip nicht mehr verbraucht.

Schwer zu sagen, ob das möglich ist. Nicht unwahrscheinlich ist, dass AMD etwas mehr Chipfläche verbraucht hat um die Yield Rates in die Höhe zu bringen. Bei einem Re-Spin sind des öfteren dann mehr Transistoren auf gleicher Fläche beheimatet, was ich mich so erinnern kann. Vermutlich hat TSMC die Fertigungstechnik nun schon deutlich besser im Griff. Wollen wirs hoffen.
 
das übliche ati nvidia geflame ^^
naja momentan kommen die games nicht hinter den grakas hinterher ...
physx ist für mich persönlich uninteressant ... sieht zwar toll aus, aber läuft finde ich viel zu schlecht. Sobald e interessant ist brechen die grakas ein. Da geb ich mich lieber mit dem weitverbreiteten und plattformunabhängigen havoc zufrieden.
die mehrleistung die theoretisch vermutet wird ist ein schritt nach vorne, sofern die graka nicht mehr als jetzt oder sogar weniger verbraucht ... den idlebetrieb wird man sicherlich auch verbessert haben ... tut mans wie nvidia indem man mehrleistung nicht durch effizienz sondern durch mehrleistung erreicht ist die 6xxx serie sicherlich kein sprung nach vorne.
3d vision ist auch schonwieder plattformabhängig ... vielleicht eine nette spielerrei um mal 10 minuten zu spielen, aber für dauerzocker denke ich noch ungeeignet und es wird soviel üer die brillen fürs tv gemeckert, da sollte man das doch eigentlich auch am pc vermuten ... aber es gibt halt nicht soviele samsung oder sony fanboys wie nvidia fanboys ^^ ... solch ein verhalten ist dort nicht so ausgeprägt ^^
 
Weiß einer von euch wann die Nvidia GTX 500 Serie kommen wird?
 
schön wäre ein 384bit SI und 1,5GB vram, aber das halte ich leider für unwahrscheinlich.
dennoch hoffe ich auch karten mit mehr als 1GB vram, bei nem triplehead-system macht das schon sinn. hoffentlich dann auch zu fairen preisen, die 5870 2GB war/ist ja alles andre als günstig.
Vergiss es,
1. sollen die neuen Karten dann die Leistungskrone holen, schon mal der 1. Preisaufschlag.
2. soll extrem hoch gezüchteter GDDR5 zum Einsatz kommen, was den Preis bei der 2GB Version nochmal erhöht...
3. müssten die HD 6000er wieder extrem effizient arbeiten, sind wir beim 3. Preisaufschlag.
4. warten sehr viele auf die neue Architektur, die ja zum größten Teil schon eingearbeitet ist, TSMC wird wohl wieder mit dem liefern nicht nach kommen...


Zur HD 6700, die wird bestimmt auch sehr schnell werden, jeder der grad eine Karte braucht sollte unbedingt bis Oktober warten...
 
@philad sag mal glaubst du den Schrott den du schreibst?wie kannst du was über 3d schreiben und ohne es wirklich je ausprobiert zu haben.wenn amd so weitermacht sind die bald weg vom Fenster,die verpennen den Megatrend der nächsten Jahre.
 
Zurück
Oben