Vedec vyzýva spoločnosti zaoberajúce sa umelou inteligenciou, aby pred spustením svojich vysoko pokročilých systémov vykonali bezpečnostné výpočty, ktoré boli základom prvého jadrového testu Roberta Oppenheimera.
Bezpečnostný expert na umelú inteligenciu Max Tegmark povedal, že vykonal výpočty podobné Oppenheimerovmu testu Trinity z roku 1945. Výsledkom bola 90 % pravdepodobnosť, že vysoko pokročilá umelá inteligencia, tzv. superinteligencia, bude predstavovať existenčnú hrozbu pre ľudstvo, informuje The Guardian.
Teoreticky superinteligencia predstavuje systém, ktorý je v každom ohľade lepší ako ľudská inteligencia a hrozí úplnou stratou kontroly. „Spoločnosti budujúce superinteligenciu musia vypočítať aj Comptonovu konštantu, teda pravdepodobnosť, že nad ňou stratíme kontrolu,“ povedal. „Nestačí povedať ‚máme z toho dobrý pocit‘. Musia vypočítať percento.“
V práci, ktorú vypracoval so svojimi študentmi, je Comptonova konštanta definovaná ako pravdepodobnosť, že sa vysoko vyspelá umelá inteligencia vymkne ľudskej kontrole.
Tegmark je okrem profesora fyziky a výskumníka na Massachusettskom technologickom inštitúte aj spoluzakladateľom neziskovej organizácie Future of Life Institute, ktorá podporuje bezpečnosť umelej inteligencie. Organizácia v roku 2023 zverejnila otvorený list, v ktorom žiada o zastavenie budovania výkonnej umelej inteligencie a ktorý podpísal aj Elon Musk.
