Radeon 9700 mit AGP 4X!?

DvP

Admiral
Registriert
März 2001
Beiträge
9.574
So ich habe mir fest vorgenommen die Radeon9700 so schnell wie möglich zu kaufen, warum brauch ich wohl keinem hier erklären. Jetzt mal eine Frage an unsere Graka Spezialisten:

Geht, bzw. wie geht eine Radeon9700 mit AGP4X?
Sind große Performanceeinbußen zu erwarten (im Bezug auf die Tatsache dass nichtmal AGP 4X jemals ernsthaft ausgenuzt wurde)?

Danke schonmal für die Antworten!
 
Hallo!

Du hast dir die Frage ja schon selber beantwortet.
ES wird wohl noch ein weilchen dauern bis AGP8X nur ansatzweise genutzt wird.Wen AGP4X endlich erstmal ausgenuzt
wird.Ich denke AGP 8X wurde nur eingeführt damit es nicht mal in einer fernen Zeit (in 3 bis 4 Jahren) zum Sogenanten Flaschenhals für die GRAKA wird,wen es um sehr grosse Datenmengen geht.
 
Obwohl ich persönlich geglaubt hätte, das es absolut total egal ist, ob man eine Karte mit AGP 2x, 4x, oder 8x betreibt, aber ich hab mich im I Net a bissl mit Fakten rumgeschlagen, nicht nur Theorien.

Ich denke das tatsächlich im Idealfall ein Leistungssteigerung von bis zu 5% zu erwarten ist, wenn man eine Radeon mit8x statt 4x betreibt. Im Durchschnitt etwa 2-3%. Vielleicht auch 3-4%.

Grundsätzlich, je höher die Framerate, desto höher Profitiert die Karte vom schnelleren AGP Port. Das heißt 225 stat 210 fps und 61 statt 60 fps.
Auch das macht den Sinn von höheren AGP Werten weiter fraglich.

Es hängt vielleicht weniger mit der höheren Bandbreite zusammen sondern mehr, dass die Karten von der höheren "Abtastrate" des AGP Ports profitieren.

Grundsätzlich schätze ich dass man eine Radeon 9700 sogar noch mit halbwegs akzeptierbaren Verlusten (7-8% zu 8x) mit AGP 2x betreiben könnte. Vielleicht sag ich so, sie wäre noch deutlich schneller als jede GeForce 4 Ti4600 mit AGP 4x.
 
Original erstellt von DaChef
Obwohl ich persönlich geglaubt hätte, das es absolut total egal ist, ob man eine Karte mit AGP 2x, 4x, oder 8x betreibt, aber ich hab mich im I Net a bissl mit Fakten rumgeschlagen, nicht nur Theorien.

Ich denke das tatsächlich im Idealfall ein Leistungssteigerung von bis zu 5% zu erwarten ist, wenn man eine Radeon mit8x statt 4x betreibt. Im Durchschnitt etwa 2-3%. Vielleicht auch 3-4%.

Grundsätzlich, je höher die Framerate, desto höher Profitiert die Karte vom schnelleren AGP Port. Das heißt 225 stat 210 fps und 61 statt 60 fps.
Auch das macht den Sinn von höheren AGP Werten weiter fraglich.

Es hängt vielleicht weniger mit der höheren Bandbreite zusammen sondern mehr, dass die Karten von der höheren "Abtastrate" des AGP Ports profitieren.

Grundsätzlich schätze ich dass man eine Radeon 9700 sogar noch mit halbwegs akzeptierbaren Verlusten (7-8% zu 8x) mit AGP 2x betreiben könnte. Vielleicht sag ich so, sie wäre noch deutlich schneller als jede GeForce 4 Ti4600 mit AGP 4x.

Also wenn ich das alles jetzt für bare Münze halte was du geschrieben hast dann hätte ich abesolut kein Problem damit mit diesen marginalen Verlusten zu leben. Wie sich das ganze wirklich auswirkt kann man sicher schwer abschätzen und vielleicht gibt es ja doch noch einen Aspekt den du noch nicht berücksichtigt hast und der sich schwer auswirken könnte.
Drum sag ich erstmal DANKE für deine Mühen und würde mich trotzdem über mindestens eine Zweitmeinung freuen.
 
Zwischen AGP 2x und AGP 8x keine Leistungssteigerung? Das glaube ich ehrlich gesagt nicht, wobei man sicherlich noch abwarten muss, bis mehrere und konkrete Tests erscheinen (ich hab aber noch nicht gründlich recherchiert). Meine Hoffnungen beruhen da auf Treibern bezüglich der VGA- und Chipsatzherstellern, wer weiß, was dort noch erreicht wird. Ich bin mir sicher, die Entwickler haben AGP 4x und AGP 8x mitnichten nur aus Marketinggründen kreiert, aber wir werden sehen.

Zurück zu deiner Frage. Natürlich kann man die Radeon 9700 mit AGP 4x betreiben, natürlich auch mit AGP 2x. Überleg doch mal, eine Karte ganz alleine für eine Technologie herausbringen, die kaum verbreitet ist? Die Karte wäre dann von vorn herein ein Disaster! Im Bios kannst du dann den AGP-Modus einstellen. Und ich versichere dir, eine Radeon 9700 wird auch mit AGP 4x wie ein Gepard rennen!
 
Original erstellt von generic003
Zwischen AGP 2x und AGP 8x keine Leistungssteigerung? Das glaube ich ehrlich gesagt nicht, wobei man sicherlich noch abwarten muss, bis mehrere und konkrete Tests erscheinen (ich hab aber noch nicht gründlich recherchiert). Meine Hoffnungen beruhen da auf Treibern bezüglich der VGA- und Chipsatzherstellern, wer weiß, was dort noch erreicht wird. Ich bin mir sicher, die Entwickler haben AGP 4x und AGP 8x mitnichten nur aus Marketinggründen kreiert, aber wir werden sehen.

Ist aber so :)

Irgendwo im Web hab ich mal einen Test gelesen, in dem 128MB Karten vom Typ Radeon8500 und GeForce4 getestet wurden.
Und zwar im Modus AGPx1, x2 und x4.
Bei keiner Karte wurden auch nur ansatzweise irgendwelche Performance-Unterschiede festgestellt.
Einzig die Quake3 Engine verzeichnet minimale Einbußen unter AGPx1, ansonsten bewegen sich alle Messergebnisse innerhalb von Messtolleranzen (+/- 0,2 Frames/s).
Wie soll AGPx8 dort schneller sein?

AGP3.0 (also AGPx8) bietet nur einen einzigen, mir bekannten, Vorteil.
Nämlich die Addressierung von mehr als 256MB Grafikspeicher.
 
@Bombwurzel:

Nope..nicht nur das glaube ich..es ist jetzt auch möglich 2 AGP slots auf ein Mobo zu löten :)...nicht ganz sicher aber glaube das mal gelesen zu haben


whoowhooo dual-r300 lol :D
 
Ich hab eben den entsprechenden Link gefunden.
Ist zwar nicht 100%ig der Artikel den ich gesucht habe, aber er beschäftigt sich mit demselben Thema und kommt zum gleichen Ergebnis.

Zur Korrektur, es ist nicht Q3A welches unter AGPx1 einbricht, sondern Aquanox.

Ab AGPx2 sieht aber alles schön gleichmäßig aus :)

Was bringt AGP 4x oder 256 MB Graphics Aperture Size?
 
Original erstellt von Bombwurzel
Ich hab eben den entsprechenden Link gefunden.
Ist zwar nicht 100%ig der Artikel den ich gesucht habe, aber er beschäftigt sich mit demselben Thema und kommt zum gleichen Ergebnis.

Zur Korrektur, es ist nicht Q3A welches unter AGPx1 einbricht, sondern Aquanox.

Ab AGPx2 sieht aber alles schön gleichmäßig aus :)

Was bringt AGP 4x oder 256 MB Graphics Aperture Size?

Danke Leute war alles was ich wissen wollte. Ich glaube fast dass ich mir das Teil einfach mal so kaufen werde so bald es geht. Kann denn SPEED Sünde sein?
 
radeon 9700

hi,es gibt auf http://www.apushardware.com/ die benchmarks fuer die 9700er.die ist wohl echt der hammer.bin mal gespannt was die neue nv30 so packt.aber eins ist schonmal klar,die radeon wird sicher um eineiges guenstiger sein als die nvidia und der thron wackelt gewaltig.ich mit meiner gf2mx kann bei den benchmarks nur an wunder glauben.hab ganze 2500 3dmarks.also sammelt schonmal damit ich unterentwickelter zocker auch an ne radeon 9700 komme. ;)
 
Ich habe eigentlich gehofft dass diese Geschwindigkeitsdiskussion nicht vom Zaun gebrochen wird denn ich weiß ganz genau, dass ich mich nie zurückhalten kann wenns um das geht. :smokin:

Also:
Erstens-> Ich möchte ATI dazu gratulieren dass sie so nen geilen Zeitpunkt gefunden haben und die Radeon9700 schon fertig haben, denn sie sind jetzt mal wirklich vorne, und nicht nur knapp. Jetzt muss nVidia mal nachsetzen und das werden sie auch tun und auch gewaltig, nur dass ATI jetzt die Möglichkeit hat dann in Ruhe na .13 micron Version nachzuschmeißen die noch VIEL mehr power haben wird.

Zweitens-> Viele von euch wissen oder sollten zumindest noch wissen ;) dass ich ATI mehr zugetan bin als nVidia. Das is erstens weil ich kein Fan von möchtegern Monopolisten wie Intel und nVidia bin und zweitens weil ich mit den Karten nie wirklich zufrieden war und auch öfters mal professionelle Kundenverarsche betrieben wurde, ABER ich bin mir sicher dass der nV30 der Radeon9700 nicht nur das wasser reichen wird sonder um einiges schneller wird. Is ja auch kein Wunder bei dem Zeitabstand und 0.13 und DDR2 (Was ATI übrigens auch nachschmeißen kann weil der R300 es auch beherrscht). Freuen tut mich wie gesagt dass trotzdem genug Raum zum kontern bleibt.

Drittens-> Is es mal schön nVidia schwitzen zu sehen. Denn wie man sieht bekommen sie das mit 0.13 micron nicht so richtig auf die Reihe und die ersten samples kommen absolut frühestens im Oktober. Wobei von vielen aber schon eine Verschiebung auf Jänner prophezeit wurde. Naja man kann nicht immer nur der große starke Marktführer sein!


Gruß

DvP
 
Original erstellt von DvP
ABER ich bin mir sicher dass der nV30 der Radeon9700 nicht nur das wasser reichen wird sonder um einiges schneller wird. Is ja auch kein Wunder bei dem Zeitabstand und 0.13 und DDR2 (Was ATI übrigens auch nachschmeißen kann weil der R300 es auch beherrscht). Freuen tut mich wie gesagt dass trotzdem genug Raum zum kontern bleibt.

nunja, damit alleine ist es nicht getan

0.13µ bringt zwar thermische Vorteile und erlaubt somit höhere Taktraten, Frage ist aber, ob nVidia gleich die Keule rausholt und mit 600MHz und mehr taktet?
Immerhin sollte noch Luft nach oben sein, um bei Bedarf schnell nochmal nachlegen zu können.
Selbes gilt für DDR-II.
DDR-II bedeutet erstmal keine höheren Bandbreiten - DDR-II ermöglicht nur höhere Taktraten durch neue Bauweise der Chips.
Allerdings hat nVidia den DDR-RAM sehr gut im Griff und taktet ihn schon jenseits jeglicher Spezifikation, dennoch wird DDR-II dem HighEnd-Produkt des NV30 vorbehalten bleiben.

Sollte nVidia tatsächlich erst zum Weihnachtgeschäft erste Chips aus der Serienproduktion liefern können, dann sollte der NV30 wirklich ne Rakete sein, damit man den jahrelang mühsam erarbeiteten Bonus nich schnell wieder verspielt.

Aber alleine schon der Name nVidia wird für großen Absatz sorgen - Marketing sells :D
 
Als, und lassen sie mich das mit aller Deutlichkeit sagen*, Profi,
denke ich, dass die Radeon 9700 auch in 5 Jahren noch schnell genug ist, um die neusten Spiele in 1024 mit jenseits der 80 fps
absolut flüssig darzustellen.

Stimm ihr mir zu ?

Ich würde ihr sogar 7 Jahre geben, bevor sie zu langsam ist,
bzw. nicht mehr Zeitgemäß.

-> billiger wird sie werden, aber nicht alt.

Bei GeForce 2 Ultra damals für 1000 Mark (mein Bruder hat ne Pro
für 750 ...) war's ja absehbar und doch wieder nicht absehbar,
aber bei der R300 ist's aus so vielen Gründen absehbar, warum sie noch in vielen Jahren top sein wird.
Allein schon bis die ersten Prozessoren die Transistor Anzahl
erreichen, dauerts noch.
Zudem ist die interne Technik ein so unglaubliches Meisterwerk
der Technik, das ich nur staunen kann.

Naja, bei der TNT ist einer auf die Idee gekommen, mehr als
1 Texel pro Takt zu rechnen und bei der Geforce ist einer auf die
Idee gekommen, ne T&L Einheit zu benutzen.

Das das alles Sachen sind, um kurzzeitig einen Vorsprung
vor der Konkurrenz geben war klar - genauso das diese
Karten niemals sehr nahe an die Realität kommen -
wo wir denke ich mal alle hin wollen.

Tja - da sind wir mit dem R300. Zumindest sehr nahe.

(Copyright 1974-2000 Helmut Kohl)
 
DaChef, wie kommst du dadrauf, das der R300 in 5 Jahren noch schnell genug sein wird?

Ein paar Punkte die dagegen sprechen:

- der R300 ist nicht voll programmierbar
erste Schritte gemäß DX9 sind zwar gemacht, aber von vollständiger Programmierbarkeit sind wir noch meilenweit entfernt
Sicherlich lassen sich schon diverse schöne Effekte progarmmieren, das ist es aber nicht, was sich die Spielehersteller für die Zukunft wünschen

- Szenen werden komplexer
in 5 Jahren werden die Engines so komplex sein, daß der R300 dem Datenaufkommen nicht mehr gewachsen ist, bis dahin werden größere Bandbreiten und schnellere Chips benötigt

- möglicherweise hat sich bis dahin AGP als Schnittstelle überholt und musste einer neuen Architektur Platz machen


In 5 Jahren kann soooooooooooooo viel passieren...
 
Hehe, nichts für ungut, DaChef, aber diesen Post rahme ich mir ein. In fünf Jahren (oder wirklich sieben?) sprechen wir nochmal über den R300 - das wird ein netter Lacher. :lol:
Wenn ich daran denke, daß vor etwa sieben Jahren eine Add-On-Graphikkarte mit dem interessanten Namen "VooDoo Graphics" auf den Markt kam (oder wann war das genau?), da gab es bestimmt auch den einen oder anderen Enthusiasten, der sich damit auf viele Jahre hinaus gerüstet wähnte. Und das Ding war ja auch gut!
Aber würdest du heute immer noch versuchen, mit einer VooDoo Graphics aktuelle Spiele auf 1024x768 zu spielen? Seien wir fair, damals waren 640x480 aktuell. Aber auch das schaffst du mit der V1 schon seit vielen Jahren nicht mehr...
Ich gebe dem R300 drei Jahre, bis er outdated ist. Und das ist großzügig geschätzt.
 
ok :D
ich rahm's mir auch ein, in 5 Jahren sprechen wir uns wieder !

Ich denke der Chip ist frei genug programmierbar und mit
FPU rechen Methode schon gleich nochmal.

Die meisten Spiele Entwickler sind ja heute schon komplett
überfordert mit den Grafikkarten *g*

@Bombwurzel:

Warum sollte man eine vollständig programmierbare Grafikkarte wollen ?
 
Zuletzt bearbeitet:
Zitat: http://www.3DCenter.de/
Denn das Ziel ist natürlich, "Renderman"-Qualität in Echtzeit darstellen zu können. "Renderman" ist eine bekannte Shader-Sprache, die in aller Regel jedoch "offline", also nicht in Echtzeit, erzeugt wird. Pixar Studios lizensiert entweder die Renderman-Software oder aber setzt sie auch selbst ein. Die meisten der Oberklasse-CGI-Effekte, die man im Kino sieht, basieren auf Renderman. "Toy Story" und "Monsters, Inc." sind mit Renderman enstanden, die CGI-Effekte der Star Wars Episoden 1 bis 3 nutzen ebenfalls diese Software.

Aufsehenerregenden Meldungen - "Final Fantasy" oder Szenen aus dem "Herrn der Ringe" seien mit einer bestimmten Hardware jetzt in Echtzeit zu rendern - sollte man mit höchster Vorsicht genießen. Denn hierbei handelt es sich bislang nur um ausgewählte, relativ unkomplexe Szenen, die einerseits zusätzlich vereinfacht, andererseits nur in Monitor-Auflösung gerendert worden sind. Von der "wahren" Rechenlast bleiben so nur noch wenige Prozent übrig. Nach unserer Schätzung werden DirectX10-Grafikkarten Kino-Effekte, die heute "State of the Art" sind, dann bei dann üblicher Monitor-Auflösung mit voller Komplexität rendern können.

Für solche Effekte benötigst du eine komplett programmierbare Grafikkarte in der Art einer PC10 von CreativeLabs. Allerdings dürfte selbst die PC10 dem Datenaufkommen der Programme in 5-7Jahren eindeutig nicht mehr gewachsen sein.

Hier der komplette Artikel auf 3DCenter
 
Bandbreitenflaschenhals

AGP8fach ermöglicht zwar an die 2Gbyte/sec. zum AGP-Port. Die Daten müssen aber erstmal über die Northbridge und deren Arbeitsspeicheranbindung laufen. Selbst schneller PC800-RamBus-Speicher oder DDR333-Speicher schafft nur Speicherbandbreiten von 3.2 b.z.w. 2.7 Gbyte/sec. Hauptsächlich wird diese zur Verfügung stehende Bandbreite aber vom Hauptdatenverkeher zwischen CPU<->Arbeitsspeicher belegt - für den AGP bleiben in der Regel nicht mehr als vielleicht max. 40% Bandbreite über - selbst bei derzeit schnellsten Speicher wären das um die max. ~ 1.3Gbyte/sec.

Wie soll also per AGP8fach 2Gbyte/Sec. übertragen werden wenn die Daten über den Speicher wandern müssen und dieser real nur noch 1 bis 1.3Gbyte/sec. über hat - AGP8x halte ich derzeit für mehr "Verkaufsmasche mit tollen Zahlen" - effektiv kann es noch nicht wirklich sein - zeigen ja auch die Benchmarks.

Anders wäre es z.b. mit PC1066-RamBus welcher 4.2Gbyte/Sec. hat - der wäre stark geung für AGP8x - leider unterstützen aber die jetzigen intel850-E Boards kein AGP8x.

SiS plannt aber grade Boards mit PC1066-RamBus + Agp8x-Unterstützung rauszubringen - da geht die Rechung erstmals sicher voll auf.

cu
 
AGPx8 schön und gut, aber das wichtigste wäre erstmal, daß auch entsprechend viele Daten über den AGP-Bus müssen.

Bei der derzeitigen Entwicklung der Grafikkarten, welche eher dahin geht, den Prozessor, und damit auch den Bus, zu entlasten, sehe ich keinen Sinn in höheren Transferraten.
 
Zurück
Oben