Bing

Umelá inteligencia sa musí pozorne sledovať: Brad Smith zo spoločnosti Microsoft

Obsah:

Anonim

Mnohým to môže znieť ako vtip, ale až donedávna bol strach z umelej inteligencie videný ako hrozbu pre ľudskú rasu bola dosť rozšírená fóbia. V skutočnosti sme to už videli v tejto prednáške v našej epizóde jednej z druhej série Captcha, v ktorej sme videli, aký je to neopodstatnený strach.

Zdá sa však, že nie každý to tak vidí a mnohí si myslia, že Skynet alebo Matrix a strojová revolúcia sú už za rohom. Umelá inteligencia môže byť hrozbou, a preto na summite GeekWire 2019 prezident spoločnosti Microsoft, Brad Smith, predstavil svoju víziu, ktorá je trochu pesimistická

Je umelá inteligencia hrozbou?

Smith uviedol dôvod tohto trochu negatívneho názoru, haváriu lietadla, ku ktorej došlo v oblasti Pugetovho prielivu, pri ktorej došlo k nehode lietadla s cestujúcimi a posádkou kvôli automatický systém, ktorý nemohli deaktivovať z kabíny, keď prišiel čas.

Softvér a jeho premisa boli úžasné, pretože má na starosti zistiť nadmerný sklon lietadla, ak je príliš vysoký, znížiť nos a zodpovedajúcim spôsobom znížiť výšku. Problém je v tom, že v tomto prípade zlyhali merania a palubní sprievodcovia nemohli deaktivovať systém s následným tragickým koncom.

"

Táto situácia bola ospravedlnením pre Brada Smitha, ktorý ospravedlňuje, že technologický vývoj je chvályhodný, ale musí byť vždy kontrolovanýA v prípade umelej inteligencie a systémov, ktoré ju obsahujú, tieto musia mať určitý druh núdzového alebo núdzového tlačidla, ktoré umožňuje ich deaktiváciu."

A pre poriadok, nie je to jediný prípad. Na pozemskejšej úrovni a oveľa bližšie k drvivej väčšine používateľov máme prípady, keď ľudí prešli autonómne autá.

Ide o zaručenie nadradenosti ľudských rozhodnutí v určitých momentoch a za určitých okolností, v ktorých je rozhodovanie systému založené na o umelej inteligencii nie je taká primeraná, ako by mala byť.

Brad Smith v tom bode neprestal vo svojej kritike používania umelej inteligencie, ako ju poznáme dnes. Celá spoločnosť a celé odvetvie si musia uvedomiť cestu, ktorou sa uberajú:

"

Videli sme, aké existujú drony a vojnové stroje>Je to len časť problému, vďaka ktorej Smith potvrdzuje, že možné riziko nekontrolovaného rozvoja AI by sa malo preskúmať a automatické učenie (strojové učenie). V skutočnosti sme už videli podobný názor od inžiniera Google."

Je to zložitý problém. Vývoj AI, ktorá v danom momente nezvládla ani samotné riadiace systémy vnútené ľudskými bytosťami. Skríženie myšlienok a teórií je na stole a dá veľa o čom hovoriť.

Zdroj | GeekWire

Bing

Voľba editora

Back to top button