#КүшiмiзБiрлiкте

Оқиғалар лентасы

Кеше
23 желтоқсан
22 желтоқсан

Сауалнама

Қарағандыда жол жөндеу сапасына ризасыз ба?
  • Иә. Олар өте жақсы жасайды;(304)
  • Мен сапаға ризамын,бірақ тұрақты кептелістер кедергі келтіреді;(49)
  • Жоқ. Олардың не жаман екенін бірден көруге болады-олар екі жылдан кейін ауысады;(337)
  • Қанша жасасаңыз да, мағынасы болмайды. Тек желге ақша.(43)

"Жаңа алаяқтар дәуірі": АИ-нің қауіптілігі мен пайдасы туралы сарапшы айтты

Сурет: Pexels
taspanews.kz

17 желтоқсанда Мәдениет және ақпарат министрі Аида Балаева өзінің Facebook парақшасында алаяқтар оның дауысын жасанды интеллект көмегімен қолдан жасайтынын айтып, қазақстандықтарды қырағылыққа шақырды. Зұлымдық немесе игілік АИ-ді, оның мүмкіндіктерін, экономикаға әсерін және халықтың қауіпсіздігі үшін қажетті қадамдарды корреспондентке жеткізеді Taspanews.kz цифрлық маркетинг бойынша сарапшы Геннадий Захаров айтты. 

Құрал

Захаров жасанды интеллект – бұл әр түрлі мамандықтағы адамдарға өнімділігін жақсартуға, бұрынғыдан гөрі көп нәрсе жасауға мүмкіндік беретін өте "керемет" құрал деген пікірмен бөлісті.

"Мысалы: жаңа шот, жаңа құбыр. Жасанды интеллект – бұл біздің экономикамызда, кем дегенде 5-6 жылдан кейін көп нәрсені өзгертетін өнеркәсіптік революцияның бір түрі деп айтуға болады. Біз қазіргі экономиканы білмейміз, ол түбегейлі өзгеруде, әрине, егер қандай да бір жаһандық проблемалар-соғыстар, апаттар болмаса", – дейді сарапшы.

Оның пікірінше, AI және оның негізіндегі құралдар жарқын және кеңірек жасауға мүмкіндік береді, медицинада мүмкіндіктер ашады, бұған Илон Масктың Neuralink жобасы мысал бола алады.

"Олар бізге адамзат сияқты көбірек мүмкіндіктер береді, сонымен қатар "вагон мен кішкентай арбаның" қауіптері, өйткені құрал өте күшті. Ол адам жасайтын нәрселерді жасай алады, бірақ әлдеқайда жылдам әрі сапалы", – деп атап өтті Захаров.

Сарапшы жасанды интеллектуалды алаяқтық схемалар көп екенін жоққа шығармайды.

"АИ-бұл игілік және алдағы жылдарға арналған экономиканың дамуы, бірақ оны зиян үшін де пайдалануға болады. Мысалы, Балаеваның жағдайы бірінші және соңғы мысалдан алыс. Дауысты көшіру-бұл AI үшін өте қарапайым қадам. Ақылы Eleven Labs сияқты нейрондық желілер бір минут ішінде дауысты көшіре алады. Бірнеше секунд ішінде адамның дауысын клондай алатын эксперименттік нейрондар бар. Тиімділікке қатысты даулар бар. VALL-E бар, SpeechText бар, мысалдар массасы. Eleven Labs, Voice Ai – ең танымал. Дауыспен бәрі шектелмейді: қалалардағы көшелердегі фотосуреттер, терең фейктер, баннерлер, үлкен экрандарда терең фейктер туралы ескертулер пайда болады. Таиландта олар әр бұрышта – бұл адамдарға арналған ескертулер. Сіз адамның сыртқы келбетін, дауысын, әдептілігін клондай аласыз – оның бейнесімен бейне жасай аласыз. Бұл біз бейімделуіміз керек жаңа шындық", - дейді сарапшы.

Сенім

Захаров жасанды интеллект алаяқтығы бізді қатты қорқытады деп болжады, өйткені адамдар теледидарға, бізге көрсетілгенге сенуге дағдыланған.

"Әлемнің кез келген елінде дәл осы қағида бойынша насихат жұмыс істейді. Сондықтан AI осы Байланыс және ақпарат беру арнасына кіре алады. Бұл тек билікті ғана емес, сонымен қатар нарық пен экономиканың кейбір ірі ойыншыларын да бағыттай алады. Бірақ адамдар енді соншалықты ақымақ емес, керісінше, олар әрқашан ақпаратты тексеруге үйренеді",– дейді сарапшы.

Ол қазір кез-келген суретке сену үрдісі әлі де күшті екеніне сенімді, бірақ жасанды интеллекттің дамуы және осындай алаяқтық әрекеттердің көбеюі, керісінше, адамдардың кез-келген жағдайда фактчекинг жасауды үйренуіне әкеледі.

"Мысалы, алаяқ қоңырау шалады. Ол сіздің анаңыздың, қызыңыздың дауысымен ақша аударуды сұрайды-сіз басқа арнаға қоңырау шалып, осы ақпаратты екі рет тексересіз. Мұнда бірдей жағдай, қажетті қалыпты бейімделу болады. Алаяқтар барлық уақытта болған, олар әрдайым дамып келеді, алдау мен ұрлау үшін жаңа технологияларды қолданады, ал адамдар мен қауіпсіздік жүйелері бейімделеді", – дейді Захаров.

Сарапшы жалпы алаяқтық схемалардың керемет саны екенін атап өтті: жалған чатботтар, жеке тұлғаны ауыстыру, жалған сайттар құру, жалған кітаптар, нақты автордың атынан жазылған мақалалар.

"Иә, алдаудың әлеуеті зор, бірақ адамдар бейімделеді. Ұлы Депрессия кезіндегі АҚШ-тағы 30-шы жылдардағы Понци жүйесін еске түсіріңіз-айтпақшы, әлі де бар қаржы пирамидасының алғашқы мысалы. Мүмкін қазір біз жаңа алаяқтар дәуіріндеміз, олар туралы аңыздар қосылады", - деп ұсынды Захаров.

Мемлекет

Сарапшының пікірінше, мемлекет өз азаматтарын тек бір жолмен қамтамасыз ете алады: ағарту арқылы, яғни ақпаратты қалай тексеруге болатындығын, бәрін екі рет талдауға үйрету.

"Мұны мемлекет емес, адам жасауы керек. Адам өзіне айтылған және көрсетілген барлық нәрсеге автоматты түрде сенбеуді үйренуі керек. Бұл өте жақсы. Сонымен, үгіт-насихаттың әсері азаяды, өйткені белгілі бір сенімсіздік әдетке айналады. Бұл азаматтардың білімі мен хабардарлығын арттырады. Біз авторлардың кейбір беделіне қарамастан, инфаға сенбейміз. Бұл алаяқтармен күресу тұрғысынан мемлекеттік органдар саласында орын алуда. Сол ескерту хабарламалары ("алаяқтарға сенбеңіз") - бұл", - деп мысал келтірді Захаров.

Оның айтуынша, AI соңғы 15 жыл бойы бізбен бірге болды, бірақ ол бұрын chat GPT сияқты қарапайым емес және кең таралған емес. AI-бұл фотосуреттерді автоматты түрде өңдеу, Google іздеу алгоритмі және ДК ішіндегі операциялар. Жасанды интеллект бізбен ұзақ уақыт бойы дамиды, оның осалдықтары жойылады. Әрине, адамдар бұл құралдарды қолдана білуі керек.

"Бұл жағдайда сұрақ тіпті AI суретін нақты фотодан ажырата аласыз ба деген сұрақ емес. Жақында технология мұндай дамуға жетеді, сіз мұны мамансыз жасай алмайсыз, бірақ мәселе сіз AI-дан белгілі бір ақпаратты өз пайдаңызға немесе зияныңызға пайдалана аласыз ба. Бізді қоршап тұрған мазмұнның 80 пайызы – бұл AI. Мысалы, студент AI көмегімен диплом жазды: және не? Егер ол дұрыс нәрсе жазса-жақсы; егер ол нонсенс көшірсе, онда оған "сәтсіздік"қойыңыз. AI-мысалы, бухгалтер үшін Excel сияқты құрал. Шоттар мен калькуляторды қолданатындар бар, бірақ арнайы бағдарламаны қолданатын және кәсіби айналымда бәсекелестерді айналып өтетіндер бар – бұдан құтылу мүмкін емес. Өйткені бұл құралдар тым пайдалы және ыңғайлы. Біз өзімізді зиян үшін емес, жақсылық үшін пайдалануымыз керек", – деді Захаров.

Қолдану

Сарапшы әртүрлі елдердің жасанды интеллектпен әртүрлі тәжірибесі бар екенін, сондай – ақ оны қолданумен алаяқтықпен күресудің әртүрлі тәжірибесі бар екенін атап өтті. Жасанды интеллектке тыйым салуға тырысқан, бірақ мүмкін емес елдер бар, өйткені бұл өте үнемді. Алаяқтардың өздеріне қарсы AI қолдану көптеген елдерде кең таралған схема болып табылады.

"Мен айтқанымдай, AI бізбен ұзақ уақыт болды, бірақ қазір ол танымал және түсінікті болды, өйткені chat GPT AI түсінігін жеңілдетті", – деп түсіндірді Захаров.

Ол біздің тілшімізге Қазақстанда супер-жоба болғанын айтты Cerebra.ai, AI көмегімен церебральды сал ауруын алғашқы кезеңдерде анықтауға көмектеседі. Қазіргі уақытта оның дамуы АҚШ-та жалғасуда.

"Қазір барлық ірі қаржылық операциялар жасанды интеллекттің арқасында модерациялануда. Сол банктер оны пайдаланады. Мысалы, Каспи сізге аударым немесе төлем жасауға шектеу қойғанда, бұл банк жүйесінің ішінде белгілі бір Алгоритмдер, яғни жасанды интеллект жұмыс істегенін білдіреді", - деп тағы бір мысал келтірді Захаров.

Сарапшының айтуынша, әр салада жасанды интеллектті қолданудың мыңдаған мысалдары бар, сондықтан ең танымал деп айту қиын. Өйткені белгілі бір салада жасанды интеллект бар бір негізгі қолданба жоқ. Нарықтағы барлық дерлік ірі IT-компаниялар жасанды интеллектпен жұмыс істейді, сондықтан оны пайдалану, соның ішінде қауіпсіздік саласында да көптеген нұсқалар бар.

"Ұлыбританияда стартап іске қосылды, соның арқасында жасанды интеллект алаяқтардың өздерін телефон арқылы алдайды. Ол алаяқтар алдауға тырысқан қарт адам болып көрінеді, олармен ұзақ сөйлеседі, сонымен бірге осы қылмыскерлер туралы кейбір негізгі деректерді есептей алады",-деп атап өтті Захаров.

Ол түсіндірді-жүйе күдікті қоңырау түскен кезде автоматты түрде іске қосылады. Адам алаяқпен тікелей байланыста болмайды, ол қауіпсіз және сонымен бірге бұл мағынасыз әңгімеге уақытын жоғалтпайды.

ҚТ үшін шешім

Қазақстанға жоғары технологиялық алаяқтармен күресу үшін өз стартаптары қажет, деп есептейді Захаров. Халықаралық тәжірибеге сүйену қажет, бірақ Қазақстанға қажетті қорғау және қауіпсіздік хаттамаларына сәйкес болатын жобаларды әзірлеу қажет.

"Мұндай мысалдар мемлекеттік секторда бұрыннан бар. Мысалы, біздің ең адал автокөлік жүргізушілеріне айыппұлдар осылай келеді. Жүйе қарапайым болып көрінеді: камера бұзушылықтарды тіркейді және айыппұлды көлік нөміріне жібереді. Бірақ іс жүзінде бұл жүйенің барлығы жасанды интеллект негізінде жұмыс істейді. Камераның көру қабілеті жұмыс істейді, ол түсін, сапасын арттырады, бұл көлік нөмірінің кімге тиесілі екенін анықтайды. Қазір жол айыппұлдарының барлығы осылай жазылады – мұның бәрі жасанды интеллекттің жұмысы деп айтуға болады", - деп түсіндірді маман.

Ол ең сапалы, ең жедел қауіпсіздік технологияларын ойлап табуға болатынына сенімді, бірақ алаяқтар да дамиды.

"Демек, ең маңызды шешім – шенеуніктердің ашықтығы, министрліктердің ашықтығы, мемлекеттік аппараттың ашықтығы. Халықты ағарту, оның жасанды интеллект саласындағы білім деңгейін арттыру қажет: адамдар жасанды интеллекттен қорықпай, оны өз пайдасына тиімді қолдана білуі үшін", – деп түйіндеді Захаров.

    • Тарату: 






    Жаңалықтар ұсыныңыз
    Біз әлеуметтік желілерде