News Supermicro sorgt für Talfahrt: „Diese Woche hat das Ende des AI-Traums markiert“

hurzpfurz schrieb:
Und wegen der Bestrafung: Was sagst du, wenn deine Tochter von einem Robotaxi angefahren und dann behindert ist oder verstirbt?

Ich weiß nicht was diese Einzelfallbetrachtungen bringen sollen.

Der entscheidende Punkt ist doch, dass ich ungleich weniger Angst habe, dass ein Robotaxi meine Tochter umbringt, als dass es ein Mensch macht der Alkohol getrunken hat, zu schnell fährt, abgelenkt ist, müde ist, sich selbst überschätzt...

Ein perfektes System wird es wohl nie geben, die Konsequenz daraus kann nicht sein, dass wir jeglichen Fortschritt verhindern.
 
  • Gefällt mir
Reaktionen: h00bi, minalion und Smartin
hurzpfurz schrieb:
Aber i.d.R. passiert es nicht, dass sie Menschen unter sich mitschleifen!! Oder ? Und ja, sie hauen von der Unfallstelle ab, aber auch das ist nicht die Regel.
Wenn es der Mensch nicht mitbekommt? Zu dem Entfernen vom Unfallort will ich Deine Vorstellung nicht erschüttern, aber es gibt ca. 240.000 Ermittlungsverfahren diesbezüglich in Dtl im Jahr. Ja vieles einfache Rempler, und nicht so dramatisch, es ist halt aber leider auch nicht der Ausnahmefall.
hurzpfurz schrieb:
Und wegen der Bestrafung: Was sagst du, wenn deine Tochter von einem Robotaxi angefahren und dann behindert ist oder verstirbt?
Inwiefern macht es für mich einen Unterschied, ob meine Tochter durch ein Robotaxi oder Menschen getötet wird? Das grausame Ergebnis ist für mich das gleiche und natürlich wird man "Hass" haben. Trotzdem geht es doch um Verschulden und Vorwerfbarkeit.
Andersgefragt, was würdest Du sagen, wenn ein Mensch im Verkehr Deine Tochter tötet, mitunter alkoholisiert, was eine Roboauto aber nicht passiert wäre bzw. den Unfall verhindert hätte? (wo wir wieder bei der Risikominimierung sind). Man kann sich keinen Einzelfall raussuchen.

Das ist vergleichbar mit den Weichensteller-Fällen in der Juristerei (Hintergrund in kurz: ein Zug steht im Bahnhof voll mit Passagieren, ein anderer Zug kommt angerast und kann nicht gebremst werden. Du kannst als Bahnmitarbeiter nur die Weiche umstellen und tötest aber die 2 Arbeiter, die gerade Bauarbeiten am Nachbargleis durchführen. Klar werden die Hinterbliebenden Dich hassen, dass Du diese Entscheidung triffst, und klar kann man Leben mit Leben nicht aufwiegen, aber so hart wie es ist, lieber weniger Schaden in Kauf nehmen, auch wenn er nie gänzlich verhindert werden kann, als das große Risiko verwirklichen lassen und einfach zuzuschauen.)
Ergänzung ()

@Magellan
zwei Doofe ein Gedanke :D
 
Naja, schlussendlich sind es ethische Fragen, die schwierig und nicht zu 100% gelöst bzw. beantwortet werden können.
 
Im Grunde ist das nicht so "schwer". Denn die gleichen Maßstäbe, die jetzt bei menschlicher Interaktion gelten, werden dann auch bei KI Interaktion gelten. Zumindest gemünzt auf rechtstaatlich Länder.
Problematisch wird es bei autokratische oder diktatorischen Staaten, da bestehen die Probleme aber auch losgelöst von der Interaktionsform.
Was die grundsätzliche ethische Abwägung betrifft, hast Du aber recht, dass das herausfordernd ist. Das ist aber ebenfalls nicht neu und rechtlich auch entschieden, auch wenn da sicher immer kontrovers diskutiert werden kann.
 
Magellan schrieb:
Ja gut wenn ich damit ein Problem habe dann sollte ich meinen Führungsposten abgeben und mich am besten irgendwo als Selbstversorger ausklinken, einen funktionierenden Kommunismus in den ich flüchten könnte kenne ich jetzt auch nicht.
Oh ja, denken wir wieder in schwarz und weiss, bringt uns sicher auch weiter. Oder besser, geben wir uns den Blankoscheck für Ausbeutung, ist doch super wenn man seine Leibegenen hat und selbst keinen Finger mehr krümmen muss, um die Baumwolle vom Feld das Geld ins Haus zu bringen.

Das erwirtschaftete Geld der Mitarbeiter gehört den Mitarbeitern/dem Unternehmen und diese haben zu entscheiden, was damit gemacht wird.
Ich weiß, radikale Idee aber wäre ja mal ein Versuch. Außer, man profitiert natürlich von der aktuellen Situation...
 
Diablokiller999 schrieb:
Oder besser, geben wir uns den Blankoscheck für Ausbeutung, ist doch super wenn man seine Leibegenen hat und selbst keinen Finger mehr krümmen muss, um die Baumwolle vom Feld das Geld ins Haus zu bringen.

Du hast doch eben noch schwarz/weiß Denken kritisiert - ist Arbeit denn direkt Ausbeutung? Wo habe ich Leibeigene nur weil ich Aktien besitze? Und wer sagt dass ich keinen Finger krümmen muss?

Diablokiller999 schrieb:
Das erwirtschaftete Geld der Mitarbeiter gehört den Mitarbeitern/dem Unternehmen

Ist das jetzt eine Feststellung oder ein Wunschgedanke? Das erwirtschaftete Geld gehört dem Unternehmen und die Mitarbeiter sind daran je nach Arbeitsvertrag nur über ihr Gehalt oder auch direkter beteiligt.
Als Aktionär bin ich Anteilseigner dieses Unternehmens und daher selbstverständlich an der finanziellen Entwicklung beteiligt, in die eine wie die andere Richtung.

Diablokiller999 schrieb:
und diese haben zu entscheiden, was damit gemacht wird.
Die Unternehmen entscheiden ja auch was damit gemacht wird und da wir beim Beispiel Nvidia waren, was die als Dividende ausschütten ist geradezu irrelevant, die Kurssteigerungen hingegen entziehen weder dem Unternehmen noch den Mitarbeitern Geld.

Ich persönlich bin davon überzeugt dass wir angesichts von KI, Robotik und der damit zu erwartenden immer extremer werdenden Automatisierung einen Weg brauchen werden der Einkommen nicht mehr nur an Besitz und Arbeit koppelt, sonst gelangen wir letztlich an einen Punkt an dem der Großteil der Bevölkerung nichts mehr verdient (und das ging noch nie gut aus).
Diesen Weg werden wir aber nicht finden indem ich die Augen vor der Realität verschließe und Wirtschaft und Aktien als Ausbeutung verteufle.
 
Zuletzt bearbeitet:
Diablokiller999 schrieb:
Das erwirtschaftete Geld der Mitarbeiter gehört den Mitarbeitern/dem Unternehmen und diese haben zu entscheiden, was damit gemacht wird.
Ich weiß, radikale Idee aber wäre ja mal ein Versuch. Außer, man profitiert natürlich von der aktuellen Situation...

Ah, ja, ich kaufe also einen Bagger, finanziere einem Baggerfahrer das Jahresgehalt samt Sozialzulagen und kümmere mich um Aufträge auf Baustellen, und am Ende des Jahres sagt der dann "Die Überschüsse gehören mir und ich habe zu entscheiden, wie die verwendet werden - ich weiss, radikale Idee, aber wäre ja mal ein Versuch!"

Vielleicht solltest Du Dich mal darüber informieren, wie sehr DU von der aktuellen Situation profitierst, dass andere Menschen Maschinen, Industrieanlagen etc für Deinen Arbeitsplatz finanzieren.
 
Zum Thema AI Hype empfehle ich mal den aktuellen Bits & So Podcast für alle Interessierten:

http://www.bitsundso.de/bus896/1098/

Sie reden über verschiedene Themen und der Podcasts ist generell einer der besten, wie ich finde, aber gerade zu KI usw. erzählen sie kurz ihre Erfahrungen und das alles stimmt mit meiner Meinung überein, dass der ganze Kram so beschränkt ist und nur einfache Dinge funktionieren.
 
hurzpfurz schrieb:
dass der ganze Kram so beschränkt ist und nur einfache Dinge funktionieren.
Das hängt halt sehr von der Erwartungshaltung ab - wenn ich von der KI erwarte in allen Belangen einem Menschen ebenbürtig zu sein (AGI) dann sind wir davon noch meilenweit entfernt. Wenn ich aber sehe was KI jetzt kann und das mit dem Stand von vor 2 Jahren vergleiche ist das schon enorm und mit jeder Iteration werden die KIs mächtiger, der produktive Nutzen größer und die möglichen Einsatzfelder zahlreicher.
Wer sich hier jetzt an irgendwelchen aktuellen Limitierungen aufhängt zeigt wenig Verständnis dafür wie schnell sich diese Technologie unter den aktuellen Bedingungen (Geldzufluss ohne Ende) entwickeln kann.
 
@Magellan

Ich verstehe deine Denkeweise und dass du an "Schneller, Besser und Weiter" glaubst.
Ich denke jedoch, dass es gewisse Grenzen gibt und insbesondere wenn man vergleicht wie schnell die Prozessoren aktuell sind, was man für Berechnungen in Bruchteilen von Millisekunden durchführen, Grafiken in Echtzeit berechnen kann usw.
All das ist aber nur möglich, weil es vorgegeben ist.

Merkwürdigerweise klappt dies mit der Spracherkennung, der "KI", dem Autonomen Fahren (immer wieder Unfälle) aber irgendwie nicht so gut.
Und das hat damit zu tun, dass bei der Spracherkennung undeutliches (für den Computer!) Sprechen, Akzente usw. dazu führt, dass das Wort "setze etwas ein" nicht richtig erkannt wird und nicht in den "Baukasten" passt, um daraus einen sinnvollen Befehl zu erkennen. Und eigentlich ist schon bei solchen "Vorgefertigten" Situationen die Fehelerquelle minimiert. Es funktoniert aber nicht, weil die Maschine nicht denken kann und sich den Sinn nicht "zusammenreimen" (dies könnte man aber bestimmt noch den sinnvollsten infrage kommenden Worten" lösen) kann.

Autonomes Fahren ist dasselbe: Die Maschine fährt eine ideale Strecke und erkannte Objekte wie Autos und Fußgänger werden umfahren - bis mal eine nicht so deutliche/nicht kenntlich gemachte Baustelle, eine Person, ein Tier, Wetterbedingungen die Maschine dazu bringt, Fehler zu machen. Sicherlich passiert das auch Menschen, aber Menschen "dürfen" Fehler machen. Damit Maschinen im alltäglichen Leben akzeptiert werden, dürfen sie keine Fehler machen.

Und auch bei der Ki sind Szenarios sehr häufig, wo der Kontext einfach nicht erkannt wird und dann irgendein Quatsch ausgespuckt wird.

In den drei Beispielen fehlt einfach die menschliche Denkfähigkeit, dass man spontan nachdenken (kann das stimmen?), kombinieren, zurücktreten, sich per Gesten verständigen usw. kann.
Auch bei den Beispielen sind viele Dinge vorgegeben und somit bekannt für die Maschine, aber eben nicht alle möglichen Szenarios (und diese sind fast unendlich) - und dann passieren Fehler (mal mehr und mal weniger gravierend).
 
hurzpfurz schrieb:
Ich denke jedoch, dass es gewisse Grenzen gibt und insbesondere wenn man vergleicht wie schnell die Prozessoren aktuell sind, was man für Berechnungen in Bruchteilen von Millisekunden durchführen, Grafiken in Echtzeit berechnen kann usw.

Und wo leitest du da die Grenze her? Gerade der Fortschritt bei den Chips ist doch mitverantwortlich für die immensen Fortschritte beim Training der KI Modelle in letzter Zeit.
Mit Blackwell ist der nächste deutliche Schritt schon in den Startlöchern und noch lange kein Ende in sicht.
Im Gegenteil ist anzunehmen, dass durch die gigantischen Geldzuflüsse in dem Bereich die Entwicklung sich die nächsten Jahre noch beschleunigt.

hurzpfurz schrieb:
Merkwürdigerweise klappt dies mit der Spracherkennung, der "KI", dem Autonomen Fahren (immer wieder Unfälle) aber irgendwie nicht so gut.
Und das hat damit zu tun, dass bei der Spracherkennung undeutliches (für den Computer!) Sprechen, Akzente usw. dazu führt, dass das Wort "setze etwas ein" nicht richtig erkannt wird und nicht in den "Baukasten" passt, um daraus einen sinnvollen Befehl zu erkennen.

Wann hast du dich zuletzt mit Spracherkennung oder der Funktionsweise von LLM beschäftigt?

Die Spracherkennung auf meinem Pixel versteht mich zu gefühlt 99% korrekt und kann mit meinem Dialekt problemlos umgehen.


hurzpfurz schrieb:
Es funktoniert aber nicht, weil die Maschine nicht denken kann und sich den Sinn nicht "zusammenreimen" (dies könnte man aber bestimmt noch den sinnvollsten infrage kommenden Worten" lösen) kann.

Das ist spätestens seit ChatGPT nicht mehr korrekt, aktuelle LLM schließen auf den "Sinn" von Texten und können sich daher auch Dinge aus dem Kontext erschließen.
https://www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644.html

hurzpfurz schrieb:
Autonomes Fahren ist dasselbe

Nö das ist ungleich komplexer, allein schon die einfließenden Daten sind ungleich mehr und unterschiedlicher dazu herrscht hier nahezu Null Fehlertoleranz - dennoch sind die Fortschritte deutlich und noch lange nicht am Ende.

hurzpfurz schrieb:
Und auch bei der Ki sind Szenarios sehr häufig, wo der Kontext einfach nicht erkannt wird und dann irgendein Quatsch ausgespuckt wird.

Sie machen Fehler, ist das nicht logisch? Erwartest du vom Start weg eine AGI die es in jedem Aspekt mit einem Menschen aufnehmen kann oder diesen übertrifft?
 
@Magellan

Es führt zu nichts.

Wir reden in zwei, drei Jahren weiter, wo wir dann stehen. Eventuell hast du ja Recht, dass dann vieles von der "KI" durchgeführt werden kann.

Oder eben nicht ...
 
hurzpfurz schrieb:
Wir reden in zwei, drei Jahren weiter, wo wir dann stehen. Eventuell hast du ja Recht, dass dann vieles von der "KI" durchgeführt werden kann.

Hab ich denn irgendwo behauptet, dass das in zwei, drei Jahren der Fall wäre?
Der entscheidende Punkt ist doch, dass diese Entwicklung eben erst an Fahrt aufgenommen hat und in 3 Jahren noch lange kein Ende erreicht ist, so richtig spannend wird es dann wo wir in 10 oder 20 Jahren stehen.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Zurück
Oben