Keine Beweise dafür, dass KI kontrolliert werden kann, heißt es in einer neuen Studie

Estimated read time 4 min read

Laut einem KI-Sicherheitsexperten können fortschrittliche intelligente Systeme nie vollständig kontrolliert werden. Es wird immer Risiken geben, unabhängig von ihren Vorteilen



Eine wichtige Frage, die seit der rasanten Entwicklung der künstlichen Intelligenz (KI) aufgeworfen wird, ist, ob sie kontrolliert werden kann. Nun sagt ein KI-Sicherheitsforscher, dass es derzeit keine Beweise dafür gibt, dass KI kontrolliert werden kann, und ohne solche Beweise sollte sie nicht entwickelt werden.

Obwohl allgemein bekannt ist, dass die Schlüsselfrage der KI-Kontrolle eines der größten Probleme der Menschheit sein könnte, ist sie nach wie vor kaum verstanden, schlecht definiert und schlecht erforscht, sagt der KI-Sicherheitsexperte und Forscher Roman V. Yampolskiy in seinem kommenden Buch „based“. auf umfangreicher Recherche, KI: Unerklärlich, unvorhersehbar, unkontrollierbar.

In dem Buch spricht Yampolskiy über die verschiedenen Möglichkeiten, wie KI die Gesellschaft potenziell verändern könnte, einschließlich ihrer negativen Auswirkungen. „Wir stehen vor einem fast garantierten Ereignis mit dem Potenzial, eine existenzielle Katastrophe auszulösen. Kein Wunder, dass viele dies für das größte Problem halten, mit dem die Menschheit jemals konfrontiert war. Das Ergebnis könnte Wohlstand oder Aussterben sein, und das Schicksal des Universums hängt in der Schwebe“, führt er aus.

Laut einer Pressemitteilung des Herausgebers Taylor & Francis Group führte Yampolskiy eine umfassende Überprüfung der wissenschaftlichen KI-Literatur durch und kam zu dem Schluss, dass es keinen Beweis dafür gibt, dass KI sicher kontrolliert werden kann. Selbst wenn es Teilkontrollen gäbe, würden diese nicht ausreichen, heißt es in dem Buch.

Yampolskiy sagte, da Statistiken zeigen, dass die Entwicklung der KI-Superintelligenz fast unvermeidlich sei, sollte es mehr Unterstützung für erhebliche KI-Sicherheitsbemühungen geben. Er wies auch darauf hin, dass fortschrittliche intelligente Systeme niemals vollständig kontrolliert werden können, so dass es unabhängig von ihren Vorteilen immer Sicherheitsrisiken geben wird. Das Ziel der KI-Community sollte darin bestehen, solche Risiken zu minimieren und gleichzeitig den potenziellen Nutzen zu maximieren, fügt er hinzu.

Eines der Probleme besteht darin, dass die KI ihre Entscheidungen nicht erklären kann und/oder die Menschen die gegebene Erklärung nicht verstehen können, da der Mensch nicht über die Intelligenz verfügt, die umgesetzten Konzepte zu verstehen. Wenn Menschen die Entscheidungen der KI nicht verstehen und nur eine „Black Box“ haben, können sie das Problem nicht verstehen und die Wahrscheinlichkeit zukünftiger Unfälle nicht verringern, erklärt Yampolskiy in dem Buch.

Beispielsweise haben KI-Systeme heute die Aufgabe, Entscheidungen in Bezug auf Gesundheitsversorgung, Investitionen und Beschäftigung zu treffen. Allerdings erläutern sie nicht, wie sie zu der Entscheidung gekommen sind und ob sie unvoreingenommen sind, heißt es in der Pressemitteilung weiter.

Darüber hinaus wird mit zunehmender Leistungsfähigkeit der KI auch ihre Autonomie zunehmen. „Weniger intelligente Agenten (Menschen) können intelligentere Agenten (ASIs) nicht dauerhaft kontrollieren. Das liegt nicht daran, dass es uns möglicherweise nicht gelingt, im riesigen Raum aller möglichen Designs ein sicheres Design für Superintelligenz zu finden, sondern daran, dass ein solches Design nicht möglich ist, es nicht existiert. Superintelligenz rebelliert nicht, sie ist von vornherein unkontrollierbar“, stellt Yampolskiy in dem Buch fest.

„Bevor man sich auf die Suche nach einer kontrollierten KI macht, ist es wichtig zu zeigen, dass das Problem lösbar ist“, warnt er in dem Buch.

Eine Möglichkeit, das Problem der Kontrolle anzugehen, besteht darin, einen Gleichgewichtspunkt zu finden, an dem im Gegenzug für etwas Kontrolle einige Fähigkeiten geopfert werden, schlägt Yompolskiy vor. Er fügt außerdem hinzu, dass es wichtig sei, „tiefer zu graben und den Aufwand sowie die Finanzierung für die KI-Sicherheitsforschung zu erhöhen“.



Image Source

You May Also Like

More From Author

+ There are no comments

Add yours