Ja, deine Punkte kann ich sehr gut nachvollziehen. Die Entwicklungen im Bereich KI erfordern für ihre Nutzung eine neue Art von Kompetenz, und wie diese genau aussieht, wandelt sich von Jahr zu Jahr – so rasant geht es gerade voran. Man lernt allerdings nur, indem man diese Fehler ein paar Mal selbst macht.
Ich glaube, richtig eingesetzt kann KI einen riesigen Gewinn für die Bildung bringen: Plötzlich kann man mit seinem sonst eher trockenen Schulbuch interaktiv chatten und Fragen stellen, die Lehrkräfte sonst leicht überfordern würden. Bei Aufgaben muss jedoch immer klar sein, welches Maß an "KI-Hilfe" vorgesehen ist.
Ich weiß, der Vergleich hinkt etwas, weil KI eben keine typisch menschliche Intelligenz besitzt, aber programmierende Agenten lassen sich, wie ein Team aus Entwicklern, nur dann sinnvoll anleiten, wenn man ähnliche Aufgaben zuvor selbst übernommen bzw. eigenständig gelöst hat. Manchmal kommt man auch ohne dieses Vorwissen zurecht, doch sobald Probleme auftreten, ist man schnell überfordert.
Was den Modellen meiner Meinung nach noch grundsätzlich fehlt, ist multimodales Denken. Sobald eine Aufgabe stark visuell ist oder sich eine Lösung 'richtig' anfühlen muss, etwa bei UI-Flow und Usability, geraten die Modelle schnell an ihre Grenzen. Ich glaube auch, dass es noch eine ganze Weile dauern wird, bis die Modelle Informationen wirklich 'menschlich' verarbeiten – falls das überhaupt ein Ziel ist. Daher wird es noch lange echte Menschen brauchen, die Software für Menschen, und nicht für KI, schreiben.
Ich glaube, richtig eingesetzt kann KI einen riesigen Gewinn für die Bildung bringen: Plötzlich kann man mit seinem sonst eher trockenen Schulbuch interaktiv chatten und Fragen stellen, die Lehrkräfte sonst leicht überfordern würden. Bei Aufgaben muss jedoch immer klar sein, welches Maß an "KI-Hilfe" vorgesehen ist.
Ich weiß, der Vergleich hinkt etwas, weil KI eben keine typisch menschliche Intelligenz besitzt, aber programmierende Agenten lassen sich, wie ein Team aus Entwicklern, nur dann sinnvoll anleiten, wenn man ähnliche Aufgaben zuvor selbst übernommen bzw. eigenständig gelöst hat. Manchmal kommt man auch ohne dieses Vorwissen zurecht, doch sobald Probleme auftreten, ist man schnell überfordert.
Was den Modellen meiner Meinung nach noch grundsätzlich fehlt, ist multimodales Denken. Sobald eine Aufgabe stark visuell ist oder sich eine Lösung 'richtig' anfühlen muss, etwa bei UI-Flow und Usability, geraten die Modelle schnell an ihre Grenzen. Ich glaube auch, dass es noch eine ganze Weile dauern wird, bis die Modelle Informationen wirklich 'menschlich' verarbeiten – falls das überhaupt ein Ziel ist. Daher wird es noch lange echte Menschen brauchen, die Software für Menschen, und nicht für KI, schreiben.

