Hizzman skrifaði:Tbot skrifaði:Hizzman skrifaði:mikkimás skrifaði:Alveg sama hversu sjálfvirkar flugvélar verða, þá verða alltaf a.m.k. tveir flugmenn á staðnum sem fylgjast með hlutunum.
Mín spá er að eftir örfá ár verði komnar sjálfvirkar fraktflugvélar. Sirka 10 árum seinna verður þetta komið í farþegaflug. Tölva hefur miklu meiri getu til að taka við upplýsingum frá miklum fjölda skynjara en maður hefur.
Vandamálið við sjálfvirkni er að hún gerir ekkkert annað en það sem er forritað. Þar með er komin stór áhætta þegar hið óvænta gerist.
Svo sem þegar nemar hætta að virka þá getur þú farið að biðja fyrir þér.
Ekki nema nokkrir dagar síðan sjálfkeyrandi rúta keyrði niður blindan mann í Japan.
Kosturinn við sjálfvirkni er að hún gerir akkúrat það sem hún á að gera. Það gildir ekki um kjötstýringar, þær eru ansi gjarnar á villur.
Neinei... sjálfvirkni gerir einmitt ekki "akkurat það sem hún á að gera", heldur gerir hún "akkurat það sem henni var sagt að gera" af annarri "kjötstýringu" sem er n.b. ekki á staðnum.
Sjálfvirkni er ein fljótlegasta leiðin til að gera sem flest mistök á sem stystum tíma.
Spurðu bara hvern sem er sem vinnur við kerfisstjórnun/IT.
Þegar allt er "eðlilegt" getur sjálfvirkni framkvæmt flestallt betur heldur en einstaklingar, en þegar upp koma jaðartilfelli þá getur þú sem einstaklingur metið tilfellið, en ef það er ekki sérstaklega búið að gera ráð fyrir þessu jaðartilfelli í hugbúnaðinum geta komið upp alvarlegar afleiðingar.
AI & ML er ekki betra en forritunin þar á bakvið sem og hvaða data það fær til að læra af, AI&ML er því ekki "neutral".
Trekk í trekk hefur verið sýnt fram á hvernig AI-based lausnir hafa mismunað eftir kynþátti eða kyni, og ástæðan er yfirleitt "ahh já, við hugsuðum ekki út í <insertname>".
Fókusinn á að koma með "wow-factor" product er svo mikill að það er jafnvel vísvitandi verið að horfa framhjá ýmsum atriðum sem gætu verið öryggisógn seinna meir.
T.d. bara það að fylgjast með dramanu því þegar Google rak Timnit Gebru og svo stuttu seinna Margaret Mitchell ("founder and co-head of ['the'] artificial intelligence ethics unit"), og fleiri til, fær mann til að hugsa "ok, tækninni fer fram en fokk hvað við eigum langt í land áður en hægt er að treysta þessu fyrir mannslífum eða einhverju sem hefur raunveruleg áhrif á líf fólks").
Hvað ábyrgðina varðar skiptir ennþá öllu máli að hafa einstakling við stjórn.
Ef að valið á
https://en.wikipedia.org/wiki/Trolley_problem á að koma frá AI teyminu þá þarf ábyrgðin að koma þaðan líka, en það sér hver einstaklingur að slíkt gengi aldrei upp.
Ég held að við komum til með að sjá þetta sem "assist" eins og í flugvélum, í lengri tíma, t.d. að geta nauðhemlað fyrr (automatic) í ákveðnum aðstæðum, tekið yfir paralell parking og reverse í stæði fyrir trailera, en þetta verður ekki meira disruptive en svo að það verða ennþá flugmenn og [atvinnu]bílstjórar við stjórnvöllinn.