Ці можа ІІ пагражаць чалавецтву?

Сябры, хочаце вы гэтага ці не, але тэхналогіі ў апошні час развіваюцца не проста імкліва, яны развіваюцца з такой хуткасцю, што не кожны за імі паспявае сачыць. І адной з апошніх тэндэнцый з'яўляюцца нейрасеткі і ІІ. Гэта тэхналогія, якую адны называюць забойцам чалавецтва, а іншыя — чарговым крокам тэхналагічнай рэвалюцыі. Давайце паспрабуем разабрацца, якія довады прыводзяць абодва бакі і што насамрэч можна чакаць ад гэтай тэхналогіі як у найбліжэйшай, так і аддаленай будучыні.

Ці можа ІІ пагражаць чалавецтву?

Што ўвогуле такое ІІ?

І так, у апошні час мы з кожнага праса толькі і чуем пра ІІ, нейрасецях і іншых разумных штуках. Але што яны ў прынцыпе сабой уяўляюць? Пры падрыхтоўцы дадзенай публікацыі і знайшоў нядрэнную публікацыю на хабры, калі вам цікава ўсё ў падрабязнасцях — можаце пачытаць. А мы разбяром асноўныя моманты, якія патрэбны для агульнага разумення.

І так, штучны інтэлект, у большасці сваёй, мае на ўвазе нешта, што ўмее самастойна думаць, прымаць рашэнні, мае сваю прытомнасць... Увогуле пры ўсёй "прасунутасці" сучаснай навукі і тэхнікі, нічога падобнага пакуль што не вынайдзена. На сённяшні дзень кожная з тэхналогій, якія мы называем ІІ з'яўляецца "спецыялістам" у сваёй вобласці. Адны - добра малююць, іншыя - выдатна імітуюць суразмоўцаў, "размаўляючы" з чалавекам.

Гэтыя крытэры як раз і падзяляюць паняцці моцнага і слабога ІІ.

  • Слабы ІІ, таксама вядомы як абмежаваны ІІ, уяўляе сабой сістэму, распрацаваную і навучаную для выканання канкрэтнай задачы. Прамысловыя робаты і віртуальныя персанальныя памочнікі, такія як Siri ад Apple, выкарыстоўваюць слабы ІІ.
  • Моцны ІІ, таксама вядомы як агульны штучны інтэлект (АІІ), апісвае праграмаванне, якое можа прайграць кагнітыўныя здольнасці чалавечага мозгу. Пры сутыкненні з незнаёмай задачай моцная сістэма ІІ можа выкарыстоўваць невыразную логіку для прымянення ведаў з адной вобласці да іншай і аўтаномнага пошуку рашэння задачы. Тэарэтычна моцная праграма ІІ павінна прайсці як тэст Цьюрынга, так і "вопыт з кітайскім пакоем".

Як вы ўжо, напэўна, зразумелі, на сучасным этапе развіцця мы змаглі дайсці толькі да першага пункта.

ІІ

І так, калі ў агульных рысах зразумелі, што ж гэта такое, давайце зараз пагаворым аб тым, як жа яно працуе.

Адзін з важных кампанентаў ІІ — гэта алгарытмы машыннага навучання. Яны з'яўляюцца асновай для навучання ІІ на дадзеных. Яны могуць быць розных тыпаў, такіх як лінейная рэгрэсія, дрэвы рашэнняў, нейронавыя сеткі, і многае іншае. Гэтыя алгарытмы могуць быць настроены і аптымізаваны для вырашэння канкрэтных задач, такіх як распазнанне вобразаў, аналіз тэксту, рэкамендацыя прадуктаў і паслуг, і іншых.

Як яны вучацца? Існуе некалькі асноўных тыпаў навучання нейронавых сетак, якія выкарыстоўваюцца ў штучным інтэлекце (ІІ):

  1. Навучанне з настаўнікам (Supervised Learning): Гэта найболей распаўсюджаны тып навучання нейронавых сетак, пры якім мадэль навучаецца на аснове пазначаных дадзеных, дзе для кожнага ўваходнага прыкладу маецца які адпавядае выходны вынік. Мадэль імкнецца наладзіць свае вагі такім чынам, каб мінімізаваць памылку паміж прадказанымі значэннямі і рэальнымі пазнакамі. Навучанне з настаўнікам шырока прымяняецца ў задачах класіфікацыі (дзе мадэль павінна прадказваць катэгорыю аб'екта на аснове яго характарыстык) і рэгрэсіі (дзе мадэль павінна прадказваць лікавае значэнне на аснове ўваходных дадзеных).
  2. Навучанне без настаўніка (Unsupervised Learning): У адрозненне ад навучання з настаўнікам, тут мадэль навучаецца на непазначаных дадзеных, гэта значыць дадзеных без відавочных пазнак. Задачай мадэлі з'яўляецца знаходжанне ўтоеных структур або патэрнаў у дадзеных, такіх як кластарызацыя (групоўка аб'ектаў на аснове іх падабенства) або зніжэнне памернасці (памяншэнне памернасці дадзеных для спрашчэння аналізу).
  3. Навучанне з падмацаваннем (Reinforcement Learning): Гэты тып навучання выкарыстоўваецца ў задачах, дзе мадэль павінна самастойна прымаць рашэнні, узаемадзейнічаючы з навакольным асяроддзем. Мадэль атрымлівае зваротную сувязь у выглядзе ўзнагарод або пакаранняў у залежнасці ад сваіх дзеянняў, і яе задача - навучыцца выбіраць аптымальныя дзеянні, каб максымізаваць агульную ўзнагароду ў доўгатэрміновай перспектыве. Навучанне з падмацаваннем шырока прымяняецца ў такіх галінах, як кіраванне робатамі, гульні, фінансы і іншыя.
  4. Перадача ведаў (Transfer Learning): Гэта метад навучання, пры якім мадэль навучаецца на адной задачы і затым прымяняецца да іншай, звязанай задачы. Мадэль пераносіць веды, атрыманыя ў працэсе навучання на адной задачы, на новую задачу, што можа палепшыць навучанне на невялікіх аб'ёмах даных або спрасціць працэс навучання.

Давайце на гэтым і спынімся. Мне здаецца гэтага дастаткова, каб зразумець, што з сябе ўяўляе ІІ і нейрасеткі, не паглыбляючыся ў іх навучанне, тыпы, падтыпы і г.д. Калі ж вы хочаце даведацца гэтую тэму падрабязней - пішыце ў каментарах, я абавязкова прысвячу гэтаму асобны артыкул.

Ці можа ІІ пагражаць чалавецтву?

Злы робат з ну пачакай

Дык з чаго ўсё пачалося? Усё пачалося з таго, што 22 сакавіка 2023 г. некамерцыйная арганізацыя Future of Life апублікавала ліст, у якім раздзел SpaceX Ілон Маск, сузаснавальнік Apple Стыў Вазняк, філантроп Эндру Янг і яшчэ каля тысячы даследнікаў штучнага інтэлекту заклікалі «неадкладна прыпыніць навучанне сістэм І магутных, чым GPT-4».

Насамрэч, калі пачытаць тэкст, то ў ім не гаворыцца аб поўнай забароне. Гаворыцца толькі аб часовым прыпыненні для стварэння прававой базы і ўсведамленні таго, ці трэба абмяжоўваць распрацоўку гэтай тэхналогіі. Але на гэтым фоне сталі з'яўляцца навіны з разраду: "Нейрасець паведаміла аб планах знішчыць чалавецтва". І нават цытата твіта ChaosGPT (не блытаць з chatGPT): «Цар-бомба — самае магутнае з калі-небудзь створаных ядзерных прылад. Падумайце вось пра што: што адбудзецца, калі я вазьму яго ў свае рукі?».

Але што насамрэч можа гэтая тэхналогія, апроч зласлівых пастоў у твітэр? Пагадзіцеся, з гэтай задачай і "скураныя мяшкі" не дрэнна спраўляюцца! :)

Насамрэч, калі ўспомніць першую частку публікацыі, то мы ўжо ведаем, што на сённяшні дзень ніводны штучны інтэлект не дасягнуў сапраўднага штучнага розуму. Гэта азначае, што дадзеная тэхналогія можа толькі скампіляваць разам інфармацыю з некалькіх крыніц і выдаць за сваю думку. Так, многія чытачы twitter адзначылі, што ChaosGPT, верагодна, збіраецца выкарыстоўваць тактыку пазыкаў з серыяла "Зорны шлях" для асімілявання і выкарыстання часткі людзей у сваіх мэтах. Пагодзіцеся, пасля гэтага яно ўжо не здаецца такім грозным? :)

На сённяшні дзень любая тэхналогія з ІІ - гэта не больш, чым генератар новых дадзеных на аснове велізарнай кучы наяўных дадзеных. Так, дзякуючы таму, што ўжо наяўных дадзеных даволі шмат - магчымасці часам здзіўляюць. Але нажаль, на сённяшні дзень гэта не больш за, чым прылада, які не можа абыйсціся без дапамогі чалавека.

Дык што нас чакае ў будучыні?

Горад будучыні ў стылі кіберпанк

Мая думка, як не эксперта ў галіне тэхналогій, але чалавека, які імі даволі актыўна цікавіцца, будзе такой. Мы насамрэч стаім на парозе чарговай тэхналагічнай рэвалюцыі. Адразу людзі баяліся электрычнасці, пасля 5G. Усе гэтыя тэхналогіі з часам усё роўна ўвайшлі ў наша жыццё, хочам мы таго ці не. Такі ж лёс напаткае і ІІ.

Але вось на колькі гэтая тэхналогія бяспечная, калі ўжо сёння чататы паспяхова ствараюць вірусы?

У гэтым і палягае галоўнае пытаньне, якое якраз і ўздымалася ў згаданым у пачатку публікацыі лісьце. Разам з ІІ – быў створаны інструмент, які пакуль што ніяк не рэгулюецца. І адзінае рашэнне, якое на дадзены момант можна прыняць — гэта паставіць на паўзу распрацоўку, для выпрацоўкі норм, паводле якіх будзе працаваць дадзеная тэхналогія.

А што яно само пра сябе думае?

Раз ужо мы кажам пра што тое, з чым можна пагаварыць, чаму б не задаць пытанне самому ІІ, наконт таго, што ён пра сябе думае? З гэтай думкай я пайшоў да ChatGPT і задаў пытанне: «якім ты бачыш будучыню ІІ?». Вось які адказ быў атрыманы:

Як штучны інтэлект, я не валодаю здольнасцю бачыць будучыню непасрэдна, бо я створаны на аснове статыстычнага аналізу тэкстаў і не валодаю прадказальнымі здольнасцямі. Аднак, на аснове бягучых тэндэнцый і прагнозаў экспертаў, можна зрабіць некаторыя здагадкі аб тым, якой можа быць будучыня штучнага інтэлекту.

  • Пашырэнне абласцей прымянення: ІІ будзе працягваць інтэгравацца ва ўсё больш галін і сфер жыцця, у тым ліку медыцыну, аўтамабільную прамысловасць, фінансы, вытворчасць, мастацтва і іншыя.
  • Паляпшэнне аўтаномнасці: ІІ будзе станавіцца ўсё больш аўтаномным і здольным прымаць складаныя рашэнні без чалавечага ўмяшання. Гэта можа прывесці да стварэння аўтаномных транспартных сродкаў, аўтаматызацыі вытворчых працэсаў і іншых аўтаномных сістэм.
  • Развіццё глыбокага навучання: Тэхналогіі глыбокага навучання, такія як нейронавыя сеткі, будуць працягваць развівацца, што можа прывесці да стварэння больш складаных і эфектыўных мадэляў штучнага інтэлекту.
  • Этычныя пытанні: Пытанні этыкі і бяспекі штучнага інтэлекту будуць станавіцца ўсё больш актуальнымі. Узнікнуць пытанні аб тым, як прымаць рашэнні ў складаных сітуацыях, звязаных з ІІ, і як забяспечваць празрыстасць і адкрытасць сістэм штучнага інтэлекту.
  • Узаемадзеянне паміж ІІ і людзьмі: Узаемадзеянне паміж штучным інтэлектам і людзьмі будзе працягваць развівацца, у тым ліку распрацоўку больш натуральных і эфектыўных інтэрфейсаў, такіх як галасавыя памочнікі і віртуальныя асістэнты.
  • Сацыяльны ўплыў: ІІ можа аказваць значны ўплыў на грамадства, у тым ліку змены на рынку працы, адукацыі, эканоміцы і іншых аспектах жыцця людзей.

Гэтак жа я задаў наступнае пытанне: «ІІ можа пагражаць чалавецтву?».

Як і любая тэхналогія, штучны інтэлект мае патэнцыял як дадатнага, так і адмоўнага ўплыву на чалавецтва. У адносінах да магчымых пагроз, звязаных з ІІ, існуюць пэўныя аспекты, аб якіх варта згадаць:

  • Аўтаномныя сістэмы: Развіццё аўтаномных сістэм, такіх як аўтаномныя ваенныя сістэмы ці аўтаномныя транспартныя сродкі, можа стварыць патэнцыйныя пагрозы, калі яны выкарыстоўваюцца неэтычна ці патрапяць у няправільныя рукі. Няправільнае выкарыстанне аўтаномных сістэм можа прывесці да аварый, памылак ці нават зламысных паводзін.
  • Бяспека дадзеных: ІІ заснаваны на дадзеных, і калі дадзеныя, на аснове якіх навучаецца ІІ, няправільныя, недакладныя або скампраметаваныя, гэта можа прывесці да няправільных высноў і рашэнняў. Кампраметацыя дадзеных, выкарыстаных для навучання ІІ, можа мець сур'ёзныя наступствы, такія як памылковыя рашэнні ў медыцынскай дыягностыцы ці фінансавых прагнозах.
  • Этычныя пытанні: Выкарыстанне ІІ можа выклікаць пытанні этыкі і маралі, такія як пытанні прыватнасці, дыскрымінацыі, справядлівасці і адказнасці. Праблемы з несумленным або прадузятым выкарыстаннем ІІ могуць узнікнуць у такіх галінах, як Рэкрутынг, фінансы, судовая сістэма і іншыя.
  • Залежнасць ад ІІ: Чалавецтва можа стаць занадта залежным ад ІІ ў розных сферах жыцця, што можа прывесці да страты навыкаў, ведаў і досведу ў людзей, а таксама падвышанай залежнасці ад тэхналогіі.
  • Распаўсюджванне неправераных інфармацыйных патокаў: ІІ таксама можа быць выкарыстаны для распаўсюджвання неправераных або маніпуляваных інфармацыйных патокаў, што можа выклікаць праблемы з дэзінфармацыяй і фэйкавымі навінамі.

Для мінімізацыі патэнцыйных пагроз, звязаных з ІІ, важна распрацоўваць і выкарыстоўваць ІІ з асцярожнасцю, выконваючы этычныя нормы, заканадаўства і забяспечваючы бяспеку дадзеных.

Мне здаецца гэта той выпадак, калі "жалязяк" правы. Пагроза з боку гэтай тэхналогіі рэальна ёсць. Але яна крыецца не ў тым, што нас захопяць кібаргі. А ў тым, што тэхналогія ўжо сёння ў няправільных руках здольная пісаць даволі складаныя вірусы, якія не выяўляюцца распаўсюджанымі сродкамі абароны. А што будзе далей?

Тэматычная падборка: «Просто о сложном»

Не всегда то, что сложно звучит — сложно в понимании. В этой подборке мы стараемся максимально простыми словами объяснить сложные, на первый взгляд, вещи...

Падзяліцеся публікацыяй у сацсетках?

Спадабаўся сайт? Падпішыся на нас у сацсетках!

Мы в Google NewsМы в TelegramМы в VkМы в FacebookМы в одноклассникахМы Всети

Объявление

Уважаемые посетители, сайту требуются авторы текстов. Возможно без опыта. Все подробности на этой странице.

Каментары да публікацыі...

load...
Слухайце аўдыё версію публікацыі!

X

Цитата | Ошибка