Ich mein, klar der Befehlssatz ist Cisc , aber das durch nen dekoder läuft, der das dann auf microOP runter zerhackt, wird, und die rechen kerne micrOP so arbeiten wie eine RISC Archtektur, mit allen vorteilen...
Auch und gerade die aelteren Implementierungen von CISCs arbeiten mit einfachen (RISC-artigen) Mikrobefehlen. Das macht sie nicht zu einem RISC. Und dann hast Du neuere Implementierungen von CISCs wie beim Pentium Pro, wo ein Mikrobefehl ungefaehr 100 bits umfasst, oder beim K7, der einen load-store-Mikrobefehl hat; passt halt nicht so zum Maerchen vom RISC-Innenleben, das ignoriert man dann gerne.
lynx007 schrieb:
Wenn das Uninn ist, scheint es weit verbreitet zu sein.
Das ist es. Gegen Ende der 1980er waren RISC-Implementierungen den CISC-Implementierungen in der Performance weit ueberlegen. Wenn dann ein CISC-Hersteller eine Technik (wie z.B. Pipelining beim 486) hingekriegt hat, die die RISCs so schnell gemacht hat, hat der Hersteller darauf hingewiesen, dass sie dieselbe Implementierungstechnik wie RISCs einsetzen. AMD hat seine Mikrobefehle auch Rops (RISC ops) genannt, obwohl sie load-store-Mikrobefehle hatten. Naja, jedenfalls haben dann die Fanboys von Intel und AMD gerne geschrieben, dass die ja jetzt auch RISCs haetten. Und der Unsinn hat sich gehalten.
Wobei es nicht geholfen hat, dass Patterson (der die Begriffe RISC und CISC gepraegt hat) dafuer urspruenglich keine Definition gegeben hat; erst in einem spaeteren Paper hat er dann Gemeinsamkeiten von IBM 801, Berkeley RISC, und Stanford MIPS aufgezaehlt, und Masheys Kriterien koennen als Fortsetzung dieses Ansatzes gesehen werden. Aber jedenfalls enthalten die Begriffe beide "instruction set", und keiner enthaelt "microarchitecture" oder "implementation", also ist jede Argumentation mit Implementierungstechniken offensichtlich Unsinn.
Wenn Du irgendwo in der Wikipedia diesen Unsinn findest, gib bitte eine Referenz, damit man das dort korrigieren kann.