
KI-Chatbots könnten zu emotionaler Abhängigkeit und ungesunden Beziehungen führen, da Kinder in vulnerablen Momenten Trost suchen. Es besteht die Gefahr, dass Kinder von KI-Chatbots schädliche oder unsichere Ratschläge erhalten.
Da Schutzmechanismen fehlen, wird ein Mindestalter von 16 Jahren für den Zugang zu KI-Chatbots vorgeschlagen. Es besteht dringender Bedarf an strengeren Regulierungen und Sicherheitsmaßnahmen für KI-Systeme, um Kinder vor den Risiken zu schützen.
Die Komplexität dieser KI-Modelle stellt jedoch eine Herausforderung dar, da ihre Funktionsweise nicht immer vollständig kontrollierbar ist. Dies wirft Fragen nach der Sicherheit auf, wenn Systeme eingesetzt werden, deren inneres Funktionsprinzip nicht vollständig verstanden wird.
Ein Beispiel dafür ist Orb, ein Gerät, das die menschliche Identität im digitalen Raum nachweisen soll. Orb baut eine globale Infrastruktur namens World auf, die Menschen von Bots unterscheiden soll. Tools for Humanity, die Entwickler von Orb, legen Wert auf Datenschutz und verantwortungsvolle Nutzung von KI, sind sich aber der Herausforderungen durch die Komplexität von KI-Modellen bewusst.
In Irland untersuchen Behörden aktuell Hunderte von Fällen, in denen das KI-Tool Grok möglicherweise zur Erstellung von CSAM verwendet wurde. Es gibt 200 laufende Ermittlungen.
Es wird von KI-Anbietern eine "starke Reaktion" gefordert, um Missbrauch ihrer Modelle zu verhindern. Bestehende Gesetze reichen aus, um Ermittlungen gegen CSAM durch KI durchzuführen, auch wenn es von KI generiert wurde.
Gleichzeitig wächst Spaniens Wirtschaft, aber die Vorteile verteilen sich nicht gerecht. Steigende Lebenshaltungskosten und niedrige Lohnentwicklung treffen insbesondere junge Erwachsene. Transferzahlungen können die Probleme nicht lösen. Um nachhaltiges Wachstum zu ermöglichen, ist eine Steigerung der Produktivität durch Investitionen in Bildung und Unternehmen notwendig.
Finnland, das bereits ein starkes Medienkompetenzprogramm hat, integriert KI-Kompetenz in den Lehrplan, um die Bevölkerung gegen KI-generierte Desinformation zu schützen. Experten warnen, dass die Unterscheidung zwischen echter und gefälschter Information mit der Weiterentwicklung von KI immer schwieriger wird. Medienkompetenz und KI-Kompetenz werden als wichtige Fähigkeiten für die Sicherheit der Demokratie angesehen.

gekennzeichnet.