ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das sinds auch bei gleichen Settings ohne Tesslation
Von ca 60 auf ca 80 Frames
mit tesslation test ich noch
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

genau die meinte ich y33H@ - danke dir!
auch hier ein ordentlicher zuwachs... mal gespannt wie es mit DX11 weitergeht. Bin gespannt wieviele Spielehersteller darauf setzen werden und ob man einen Unterschied sehen wird...

ein Nachtrag zu meinem Text faellt mir gerade noch ein:
selbst wenn GPGPU eine gewisse Zukunft besitzen sollte, stellt sich die Frage, wieviel Rechenpower eine GPU bereitstellen muss. Wenn die CPUs in Zukunft eine GPU besitzen, sehe ich kein Problem, diese auch bei einem Supercomputer zu nuzten - zudem hat man noch die CPU welche vielseitigere Rechenoperationen uebernehmen kann. Ob es dann noch seperate Loesungen in groesserer Zahl braucht?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Statler_Waldorf: eine gpu in der cpu ist für supercomputer aber ein nachteil: jede einzelne cpu (in supercomputern ja n paar mehr als nur eine ;) ) schleppt diesen "balast" mit, der strom verbraucht, obwohl nur eine einzige gpu zur bildausgabe benötigt wird. eine gpu in der cpu besitzt zu wenig rechenleistung, um für einen supercomputer interessant zu sein. da kann man nur das eine oder das andere sinnvoll nutzen. für maximale leistung muss der rechner für seine aufgaben spezialisiert sein.

allerdings haben sowohl gpu als auch cpu bereiche, in denen sie besonder stark sind und ebenso welche, in denen sie deutlich unterlgen sind.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ein grossrechner laeuft sowieso stets unter viel last, weil sich sonst die anschaffung nicht lohnt (und auch die laufenden kosten im ruhezustand einfach zu hoch sind, als das man sich das leisten kann - die entwicklung ist ohnehin so schnell, dass man die teile ohnehin nach ein paar jahren auswechseln muss), von daher ist das mit dem rumschleppen kein argument.
in bereichen, in denen man GPUs brauchen kann, kommen eben die kombinierten loesungen zum einsatz.
ausserdem kann jetzt noch niemand sagen ob, oder wieviel die GPU im idle verbraucht. wuerde mich nicht weundern, wenn man sie quasi abschalten kann - wie es bei einem multicore mit einzelnen prozessoren auch immer besser gelingt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

grade unter last wird es imho ein argument, es sei denn, man könnte den chipteil mit der igp deaktivieren. eine igp wird man imho wohl nich in einer hochleistungs-cpu finden. bei officerechnern sicherlich ne gute idee, wird so ein bremsklotz bei leistungsorientierten cpus einfach pyhsikalisch zu einem hemmschuh. um den platz für die igp zu schaffen muss man schließlich abstriche bei der cpu machen, wie z b auf einen cpu-kern verzichten. und wenns nur der einer von 12 ist, ist es immernoch eine leistungseinbuße.

ich weis, worauf du hinaus willst, aber supercomputer werden zielgerichtet für bestimmte aufgaben gebaut. entweder erfordern diese aufgaben dabei cpu leistung (befehlssatzerweiterungen) oder gpu-leistung (massiv parallelisierte rechenleistung). ein bisschen von diesem, ein bisschen von jenem und nichts davon wirklich perfekt, dürfte imho in dem bereich in den seltensten fällen sinnvoll sein. bis eine igp die leistung einer 8800gtx beispielsweise erreicht, kann eine einfache grafikkarte zum hausgebrauch sicherlich 50 x mehr rechenleistung bereitstellen.
kann zwar sein, dass sowas mal kommt, aber ich bezweifle es stark, da spezialierung der schlüssel zu maximaler leistung ist.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich weis gar nicht warum immer nur die Supercomputer als Markt für GPGPU gesehen werden. Marktanalysten der Branche rechnen damit dass zukünftige PCs (Desktop/Workstation) zu über 80% mit 2 oder mehr diskreten Grafikkarten bestückt sein werden. Die IGPs werden hierbei nicht berücksichtigt.

Ich denke Nvidia folgt diesen Analysen und versucht soetwas wie eie dritte Leistungskomponente für den PC zu erschaffen. Bisher sind die Kernstücke immer CPU und GPU hier soll wohl in Zukunft noch die GPGPU als zusätzliches gleichwertiges Element etabliert werden - guter Plan wenn es denn funktioniert und die Analysten nicht daneben liegen. Das würde sicherlich auch wesentlich besser funktionieren wenn eine Hybrid-Betrieb HDRadeon+PysXnvidia möglich wäre und die Lager nicht künstlich getrennt gehalten würden. Doch noch möchte Nvidia wohl auf den Umsatz bei den Grafikkarten nicht verzichten. Dennoch ist es bezeichnend, dass die Treiber ein relativ einfaches "hacken" der Einschränkungen ermöglichen.

Würde es denn so kommen, dass man GPU und GPGPU parallel verwendet beim Zocken, so würde vieles der GPU und CPU an Rechenarbeit abgenommen und die Bedeutung dieser Komponenten bei der Beurteilung der Rechenpower eines PCs würde sinken - daher kämpft auch Nvidia an allen Fronten derzeit. Schwer erarbeitete Technologien und teuer bezahlte Entwicklungen würden für die CPU-Schmieden plötzlich keinen bis weniger Nutzen haben und Intels tik-tok würde völlig aus dem Tritt kommen. Was sollten sie den machen wenn die nächsten 3-4 Jahre für mehr Leistung keine neue CPU mehr erforderlich sei wird, sondern eine neue GPGPU Karte das auf dem PCIe erledigt? Und schon sind wir auch bei dem DMI-Flaschenhals der P55 Chipsätze ;)

Ich bin gespannt wie sich das alles entwickeln wird :)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

für aktuelle karten ist das aber wohl noch zukunftsmusik, auch wenn die technischen vorrausstezungen seit der gf8 und hd5k vorhanden sind. (ausnahmen wie folding@home und einzelne programme wie bada boom mal außen vor).
im supercomputerbereich findet gpgpu aber bereits anwendung. das wird sicherlich der vorreiter für den privatbereich werden. nvidia tut sicher gut daran, diese entwicklung zu fördern, um nicht von intel und amd vollständig durch deren komplettsystem vom markt gedrängt zu werden. denn viel hat nvidia in diesem bereich nicht mehr zu bieten. cpu gibts nicht und mangels x86-lizens auch nicht zu erwarten, chipsätze sind auch bald geschichte und gpus haben sie das geballte know-how von amd und ati gegen sich und stehen auch nicht mehr so gut da, wies mal war. sollte sich gpgpu durchsetzen können, wirds für nvidia vllt nicht mehr ganz so düster aussehn in zukunft. falls nicht, haben sie wohl vorerst ihre besten tage gesehn...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Da kann ich dir voll und ganz zustimmen Lübke :)
Ich denke Nvidia hat sich das ganze sehr erschwert durch das unterschätzen von DX11 - siehe die neuen Catalyst Treiber. Wenn sich das verifizieren lässt was Motkachler hier gebencht hat wird Nvidia den Spieleschmieden erklären müssen warum sie diese Technologie gebremst haben. Das könnte zu Problemen in der Glaubwürdigkeit führen die es schwerer macht Programmierer von eigenen neuen Konzepten zu überzeugen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

nicht mit dx10.1 verwechseln ;)
dx11 soll auch von nvidia kommen. allerdings die mehrleistung möchte ich schon von cb bestätigt wissen, da sie mir erstens unnormal hoch vorkommt und zweitens y33h@ diese nicht feststellen konnte. darum bin ich mal auf tests durch wolfgang gespannt, ob und stark sich das auswirkt und ob diese änderung sich auf dx11 oder auf das spiel als solches bezieht.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Ich weis gar nicht warum immer nur die Supercomputer als Markt für GPGPU gesehen werden. Marktanalysten der Branche rechnen damit dass zukünftige PCs (Desktop/Workstation) zu über 80% mit 2 oder mehr diskreten Grafikkarten bestückt sein werden. Die IGPs werden hierbei nicht berücksichtigt.
Ohne zeitliche Einordnung ist so eine Aussage schon mal wertlos. Wann soll das sein, in 10 Jahren? Davon abgesehen glaub ich nicht mal dann. Wer braucht denn überhaupt richtig viel Performance? Ich würd mal sagen 5% vom Markt. Der Rest will einfach ne Maschine zum Surfen, Office-Sachen und vll mal n Video anschauen. Dazu reicht billigste Hardware von heute.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

aber wenn die leistung eines nf9400 reichen würde (also der chipsatz mit igp!), dann hätte man deutlich geringere kosten, da keine cpu erforderlich ist und einen deutlich niedrigeren stromverbraucht, da die cpu komplett entfällt...
wenn amd schlau ist, stoßen sie hier ins gleiche horn wie nvidia und untergraben so intels quasi-monopol^^ mit ihrer 5d-architektur + cpu-befehlssatzerweiterungen wäre amd mehr als gut aufgestellt und hätten imho gegenüber beiden großen konkurrenten vorteile. (intel keine vernünftige shader-architektur, nvidia keine cpu-befehlssatzerweiterungen, insbesondere kein x86, a64, mmx, sse,...)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

aspro schrieb:
Ohne zeitliche Einordnung ist so eine Aussage schon mal wertlos. Wann soll das sein, in 10 Jahren? Davon abgesehen glaub ich nicht mal dann. Wer braucht denn überhaupt richtig viel Performance? Ich würd mal sagen 5% vom Markt. Der Rest will einfach ne Maschine zum Surfen, Office-Sachen und vll mal n Video anschauen. Dazu reicht billigste Hardware von heute.
nun ja Marktanalysten sagen im Jahr 2012 ca 50% mit Multi-GPU voraus: http://www.pcgameshardware.de/aid,6...angeblich-auf-dem-Vormarsch/Grafikkarte/News/
Das stammt aus dem August diesem Jahres. Einen Zeitraum habe ich bewusst nicht angegeben, da Marktanalysten auch mal 5 Jahre daneben liegen können selbst wenn sie recht haben - da sind mir zu viele Phantasten dabei. Aber das ist schließlich ihre Aufgabe, denn sonst würde niemand Aktien kaufen.

Aber viel interessanter ist der im dortigen Artikel am Ende versteckte Link zu dieser PDF-Datei: http://www.jonpeddie.com/special/WhitePapers/Multi-GPU-issues-and-opportunities.pdf
Hier ist wirklich klasse die Multi-GPU Technik erklärt wo die Probleme und Chancen liegen.

@Lübke
Ja ich denke da hat sich AMD frühzeitig sehr gut positioniert und die strategischen Entscheidungen der letzten Jahre werden Früchte tragen. Intel spielt ihnen ja mit dem derzeitigen i3/i5/i7 Nebelkerzen-Marketing ungewohnterweise in die Tasche habe ich das Gefühl. So kennt man Intel eigentlich nicht in der Öffentlichkeitsarbeit. Aber sie haben diese Jahr einige Nackenschläge einstecken müssen die sich in den nächsten 1-2 Jahren erst richtig bemerkbar machen werden.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

wie meinst du das, dass intel AMD in die Tasche spielt? was für nebelkerzen-marketing?


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Könne denn die Zuwäche von DX11 Titeln mit dem Catalyst 9.12 nun bestätigt werden?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

könnte es selber erst heute nacht testen, Y33h konnte es zumindest nicht bestätigen.


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wieso Link zu MediaFire wo du den 9.12 downloaden kannst steht doch hier! ^^

P.S. Auf Y33H@ würde ich sowieso nicht viel geben, Objektiv ist was anderes. Der kleine PCGH Mensch ist sowieso extrem contra ATI und Pro NV. Manche nennen diese Einstellung auch "Fanboy"!
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich denke das Tesslation bei mir nicht fiunzt mit dem 9.12 im Dirt2 Bench unter WIN7 64 bit bei anderen sinds viel weniger als bei mir so 8 Frames. Hab Dirt neu installiert das selbe Ergebnis irgendwas ist Faul.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das müsstest du doch in Heaven (Häuser und Wege) oder Dirt 2 (Wasser) sehen ob Tesselation an oder aus ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schinzie schrieb:
wie meinst du das, dass intel AMD in die Tasche spielt? was für nebelkerzen-marketing?
Na wie soll denn ein normaler Kunde anhand der I7-Bezeichnung die CPU einordnen? Damit weis er nicht mal welchen Sockel er bekommt. Auf diese Weise werden P55-Boards verkauft an den Endkunden damit wenigstens ein "i7" gekauft wurde der noch bezahlbar war. Aber darüber haben wir uns hier schon unterhalten: https://www.computerbase.de/forum/t...s-core-i7-im-maerz.674021/page-8#post-7073973 ist hier Off-Topic.

Grade seh ich auch noch die News über die neuen Opterons im März ;)
AMD hat derzeit einfach das geschlossenere Konzept sowohl bei Grafiken als auch bei CPUs, weil sie eben in beiden Bereichen im High-End dabei sind.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Romsky schrieb:
Das müsstest du doch in Heaven (Häuser und Wege) oder Dirt 2 (Wasser) sehen ob Tesselation an oder aus ist.
Sieht man schlecht im Dirt2 Bench. Im unigine Bench siehts jedenfalls unter Vista anders aus als unter win7.
Ich denke unter Vista 32bit funzt Tesslation unter WIN 7 64 bit nicht.
Weis aber nicht wie ich das testen kann obs funzt.
Werde mal warten bis der Final 9.12 kommt und den installieren.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben