Digitalisierung : Was KI besser kann – und was nicht
Stellen Sie sich einen digitalen Assistenten vor, der alles besser macht als Sie. Egal, was Sie sagen oder entscheiden, er wird Sie korrigieren. Wenn Sie mit einem Plan fürs nächste Jahr kommen, er wird einen geeigneteren haben. Irgendwann geben Sie es auf, persönliche Entscheidungen zu treffen. Von jetzt an kümmert sich die KI perfekt um alles – sie regelt Ihre Finanzen, schreibt Ihre Nachrichten, wählt Ihren Lebenspartner aus und plant, wann es am günstigsten ist, Kinder zu bekommen. An Ihrer Tür werden Pakete mit Waren abgeliefert, von denen Sie noch nicht einmal wussten, dass Sie sie brauchen. Vielleicht meldet sich eine Sozialarbeiterin bei Ihnen, weil der digitale Assistent vorausgesehen hat, dass Ihr Kind möglicherweise eine schwere Depression entwickelt. Und bevor Sie sich lange den Kopf zerbrechen, welcher politische Kandidat Ihnen mehr zusagt, weiß Ihr Assistent das schon und wählt für Sie. Es ist nur eine Frage der Zeit, bis Tech-Unternehmen Ihr Leben bestimmen und der getreue Assistent sich in eine Superintelligenz verwandelt. Wie eine Schafherde werden unsere Enkelkinder ihrem neuen Herrn ehrfürchtig, brav und gehorsam folgen.
In den letzten Jahren habe ich bei vielen populärwissenschaftlichen Veranstaltungen über künstliche Intelligenz (KI) gesprochen und war immer wieder überrascht, wie verbreitet das bedingungslose Vertrauen in komplexe Algorithmen zu sein scheint. Gleich, um welches Thema es ging, die Vertreter der Tech-Unternehmen versicherten den Zuhörern, eine Maschine könne die anstehende Aufgabe genauer, schneller und billiger erledigen. Mehr noch, indem man Menschen durch Software ersetze, könne man die Welt besser und angenehmer machen. So hören wir beispielsweise, Google kenne uns besser als wir uns selbst und KI könne unser Verhalten fast perfekt vorhersagen oder werde es jedenfalls bald können. Tech-Unternehmen nehmen diese Fähigkeit für sich in Anspruch, wenn sie ihre Dienste Werbekunden, Versicherungen oder Geheimdiensten andienen. Auch wir neigen dazu, ihnen das zu glauben ...
Schreiben Sie uns!
Beitrag schreiben