Hommeltuie en selfrymotors as wapens: waarom ons bang moet wees vir kuberkrakers
Hommeltuie en selfrymotors as wapens: waarom ons bang moet wees vir kuberkrakers
Anonim

As kunsmatige intelligensie in die verkeerde hande val, kan die beskaafde wêreld in chaos dompel.

Hommeltuie en selfrymotors as wapens: waarom ons bang moet wees vir kuberkrakers
Hommeltuie en selfrymotors as wapens: waarom ons bang moet wees vir kuberkrakers

Niemand sal ontken dat kunsmatige intelligensie ons lewens na die volgende vlak kan neem nie. KI is in staat om baie probleme op te los wat buite die krag van mense is.

Baie glo egter dat die superintelligensie ons beslis sal wil vernietig, soos SkyNet, of sal begin om eksperimente op mense uit te voer, soos GLDoS van die Portal-speletjie. Die ironie is dat slegs mense kunsmatige intelligensie goed of sleg kan maak.

Waarom kunsmatige intelligensie 'n ernstige bedreiging kan wees
Waarom kunsmatige intelligensie 'n ernstige bedreiging kan wees

Navorsers van Yale Universiteit, Oxford, Cambridge en OpenAI het 'n verslag oor die misbruik van kunsmatige intelligensie gepubliseer. Dit sê die werklike gevaar kom van kuberkrakers. Met behulp van kwaadwillige kode kan hulle die werking van outomatiese stelsels onder beheer van KI ontwrig.

Navorsers vrees dat goedbedoelde tegnologieë benadeel sal word. Toesigtoerusting kan byvoorbeeld nie net gebruik word om terroriste vas te trek nie, maar ook om op gewone burgers te spioeneer. Navorsers is ook bekommerd oor kommersiële hommeltuie wat kos lewer. Dit is maklik om hulle te onderskep en iets plofbaars te plant.

Nog 'n scenario vir die vernietigende gebruik van KI is selfbesturende motors. Dit is genoeg om 'n paar reëls kode te verander, en masjiene sal veiligheidsreëls begin ignoreer.

Waarom kunsmatige intelligensie 'n ernstige bedreiging kan wees
Waarom kunsmatige intelligensie 'n ernstige bedreiging kan wees

Wetenskaplikes glo dat die bedreiging digitaal, fisies en polities kan wees.

  • Kunsmatige intelligensie word reeds gebruik om die kwesbaarhede van verskeie sagtewarekodes te bestudeer. In die toekoms kan kuberkrakers 'n bot skep wat enige beskerming sal omseil.
  • Met die hulp van KI kan 'n persoon baie prosesse outomatiseer: byvoorbeeld 'n swerm hommeltuie of 'n groep motors beheer.
  • Met behulp van tegnologieë soos DeepFake is dit moontlik om die politieke lewe van die staat te beïnvloed deur vals inligting te versprei oor wêreldleiers wat bots op die internet gebruik.

Hierdie skrikwekkende voorbeelde bestaan tot dusver slegs as 'n hipotese. Die skrywers van die studie stel nie 'n volledige verwerping van tegnologie voor nie. In plaas daarvan glo hulle dat nasionale regerings en groot maatskappye moet sorg vir sekuriteit terwyl die KI-industrie nog in sy kinderskoene is.

Beleidmakers moet tegnologie bestudeer en saam met kundiges op die gebied werk om die skepping en gebruik van kunsmatige intelligensie effektief te reguleer.

Ontwikkelaars moet op hul beurt die gevaar wat hoë tegnologie inhou, evalueer, die ergste gevolge verwag en wêreldleiers daaroor waarsku. Die verslag doen 'n beroep op KI-ontwikkelaars om met sekuriteitskenners op ander gebiede saam te werk en te kyk of die beginsels wat die veiligheid van hierdie tegnologie verseker, gebruik kan word om kunsmatige intelligensie te beskerm.

Die volledige verslag beskryf die probleem in meer besonderhede, maar die slotsom is dat KI 'n kragtige hulpmiddel is. Alle belangstellendes moet die nuwe tegnologie bestudeer en seker maak dat dit nie vir kriminele doeleindes gebruik word nie.

Aanbeveel: