Жасанды интеллект туралы

Жасанды интеллект туралы

tl; dr:

  • Машиналық оқыту деректердегі үлгілерді іздейді. Бірақ жасанды интеллект «біржақты» болуы мүмкін, яғни дұрыс емес үлгілерді табыңыз. Мысалы, фотоға негізделген тері ісігін анықтау жүйесі дәрігердің кеңсесінде түсірілген суреттерге ерекше назар аударуы мүмкін. Машиналық оқыту мүмкін емес түсіну: оның алгоритмдері тек сандардағы үлгілерді анықтайды, ал егер деректер репрезентативті болмаса, оны өңдеу нәтижесі де солай болады. Мұндай қателерді ұстау машиналық оқытудың өте механикасына байланысты қиын болуы мүмкін.
  • Ең айқын және қорқынышты проблемалық аймақ - адамның әртүрлілігі. Адамдар туралы деректер жинау сатысында да объективтілігін жоғалтуының көптеген себептері бар. Бірақ бұл мәселе тек адамдарға ғана әсер етеді деп ойламаңыз: қоймадағы су тасқынын немесе істен шыққан газ турбинасын анықтауға тырысқанда дәл осындай қиындықтар туындайды. Кейбір жүйелер терінің түсіне бейім болуы мүмкін, басқалары Siemens сенсорларына бейім болады.
  • Мұндай мәселелер машиналық оқыту үшін жаңалық емес және олар оған тән емес. Кез келген күрделі құрылымда қате болжамдар жасалады және белгілі бір шешімнің неліктен қабылданғанын түсіну әрқашан қиын. Біз мұнымен кешенді түрде күресуіміз керек: тексеру үшін құралдар мен процестерді жасаңыз және пайдаланушыларды AI ұсыныстарын соқыр орындамайтындай етіп оқытыңыз. Машиналық оқыту кейбір нәрселерді бізден әлдеқайда жақсырақ жасайды - бірақ иттер, мысалы, есірткіні анықтауда адамдарға қарағанда әлдеқайда тиімді, бұл оларды куәгер ретінде пайдалануға және олардың айғақтары негізінде үкім шығаруға себеп емес. Айтпақшы, иттер кез келген машиналық оқыту жүйесіне қарағанда әлдеқайда ақылды.

Машиналық оқыту бүгінгі күннің ең маңызды іргелі технологиялық үрдістерінің бірі болып табылады. Бұл технологияның алдағы онжылдықта айналамыздағы әлемді өзгертетін негізгі жолдарының бірі. Бұл өзгерістердің кейбір аспектілері алаңдаушылық тудырады. Мысалы, машиналық оқытудың еңбек нарығына ықтимал әсері немесе оны этикалық емес мақсаттарда пайдалану (мысалы, авторитарлық режимдер). Бұл хабарламада тағы бір мәселе бар: жасанды интеллектке бейімділік.

Бұл оңай оқиға емес.

Жасанды интеллект туралы
Google AI мысықтарды таба алады. 2012 жылғы бұл жаңалық сол кезде ерекше болды.

«AI Bias» дегеніміз не?

«Шикі деректер» - бұл оксиморон және жаман идея; мәліметтер мұқият және мұқият дайындалуы керек. - Джеффри Бокер

2013 жылға дейін бір жерде, мысалы, фотосуреттердегі мысықтарды танитын жүйені жасау үшін логикалық қадамдарды сипаттау керек болды. Кескіндемедегі бұрыштарды қалай табуға, көзді тануға, жүнге арналған текстураларды талдауға, табандарды санауға және т.б. Содан кейін барлық компоненттерді біріктіріп, оның шынымен жұмыс істемейтінін біліңіз. Механикалық ат сияқты - теориялық тұрғыдан оны жасауға болады, бірақ іс жүзінде оны сипаттау өте күрделі. Ақырғы нәтиже - жүздеген (тіпті мыңдаған) қолжазба ережелер. Бірде-бір жұмыс моделі емес.

Машиналық оқытудың пайда болуымен біз белгілі бір нысанды тану үшін «қолмен» ережелерді пайдалануды тоқтаттық. Оның орнына біз «осы», X мың үлгісін, «басқа», Y мың үлгісін аламыз және компьютерге олардың статистикалық талдауы негізінде үлгі құруға мүмкіндік береміз. Содан кейін біз бұл модельге кейбір үлгі деректерін береміз және ол жиындардың біріне сәйкес келетінін белгілі бір дәлдікпен анықтайды. Машиналық оқыту модельді адам жазғаннан гөрі деректерден жасайды. Нәтижелер әсіресе кескін мен үлгіні тану саласында әсерлі, сондықтан бүкіл технологиялық индустрия қазір машиналық оқытуға (ML) көшуде.

Бірақ бұл қарапайым емес. Нақты әлемде сіздің мыңдаған X немесе Y мысалдарыңызда A, B, J, L, O, R және тіпті L бар. Олар біркелкі бөлінбеуі мүмкін, ал кейбіреулері жиі орын алуы мүмкін, сондықтан жүйе көбірек төлейді. сізді қызықтыратын заттарға емес, оларға назар аударыңыз.

Бұл іс жүзінде нені білдіреді? Менің сүйікті мысалым - кескінді тану жүйелері шөпті төбеге қарап, «қой» деңіз. Неге екені түсінікті: «қойлардың» мысал фотосуреттерінің көпшілігі олар тұратын шалғындарда түсірілген және бұл суреттерде шөп кішкентай ақ үлпілдектерге қарағанда әлдеқайда көп орын алады және жүйе ең маңызды деп санайтын шөп болып табылады. .

Бұдан да маңызды мысалдар бар. Жақында бір жоба фотосуреттерде тері ісігін анықтау үшін. Дерматологтар түзілімдердің мөлшерін жазу үшін сызғышты тері ісігінің көріністерімен бірге жиі суретке түсіретіні белгілі болды. Сау тері фотосуреттерінің мысалында сызғыштар жоқ. AI жүйесі үшін мұндай сызғыштар (дәлірек айтқанда, біз «сызғыш» ретінде анықтайтын пикселдер) мысалдар жиынтығы арасындағы айырмашылықтардың біріне айналды, кейде терідегі кішкене бөртпеден маңыздырақ болды. Тері қатерлі ісігін анықтау үшін құрылған жүйе кейде оның орнына билеушілерді мойындады.

Мұндағы басты мәселе – жүйенің не қарап отырғанын семантикалық түсінігінің жоқтығы. Біз пикселдер жинағына қарап, оларда қой, тері немесе сызғыштарды көреміз, бірақ жүйе тек сандық сызық. Ол үш өлшемді кеңістікті көрмейді, объектілерді, текстураларды немесе қойларды көрмейді. Ол деректердегі үлгілерді ғана көреді.

Мұндай проблемаларды диагностикалаудың қиындығы нейрондық желінің (машиналық оқыту жүйесі жасаған үлгі) мыңдаған жүздеген мың түйіндерден тұруында. Модельге қарап, оның қалай шешім қабылдайтынын көрудің оңай жолы жоқ. Мұндай жолға ие болу процесс машиналық оқытуды пайдаланбай, барлық ережелерді қолмен сипаттау үшін жеткілікті қарапайым екенін білдіреді. Адамдар машинаны оқыту қара жәшікке айналды деп алаңдайды. (Мен бұл салыстырудың неге тым көп екенін сәл кейінірек түсіндіремін.)

Бұл, жалпы алғанда, жасанды интеллект немесе машиналық оқытудағы біржақтылық мәселесі: деректердегі үлгілерді табу жүйесі қате үлгілерді табуы мүмкін және сіз оны байқамауыңыз мүмкін. Бұл технологияның негізгі сипаттамасы және онымен академиялық ортада және ірі технологиялық компанияларда жұмыс істейтіндердің барлығына анық. Бірақ оның салдары күрделі және сол салдарға біздің ықтимал шешімдеріміз де.

Алдымен оның салдары туралы сөйлесейік.

Жасанды интеллект туралы
AI біз үшін жасырын түрде көптеген көрінбейтін сигналдарға негізделген адамдардың белгілі бір санаттарының пайдасына таңдау жасай алады.

AI бұрмалану сценарийлері

Ең анық және қорқыныштысы, бұл мәселе адамның әртүрлілігіне қатысты өзін көрсете алады. Жақында деген қауесет болдыAmazon жұмысқа үміткерлерді бастапқы тексеру үшін машиналық оқыту жүйесін құруға тырысты. Amazon жұмысшылары арасында ер адамдар көп болғандықтан, «сәтті жалдау» мысалдары көбінесе ер адамдар болып табылады және жүйе ұсынған түйіндемелерді таңдауда ер адамдар көбірек болды. Amazon мұны байқады және жүйені өндіріске жібермеді.

Бұл мысалдағы ең маңызды нәрсе, түйіндемеде жынысы көрсетілмегеніне қарамастан, жүйе ер үміткерлерді қолдайтыны туралы қауесет болды. Жүйе «жақсы жалдау» мысалдарында басқа үлгілерді көрді: мысалы, әйелдер жетістіктерін сипаттау үшін арнайы сөздерді қолдануы немесе ерекше хоббиі болуы мүмкін. Әрине, жүйе «хоккей» деген не, «адамдар» кім екенін немесе «табыс» деген не екенін білмеді - ол жай ғана мәтінге статистикалық талдау жасады. Бірақ ол көрген үлгілерді адамдар байқамай қалуы мүмкін және олардың кейбіреулері (мысалы, әртүрлі жыныстағы адамдар сәттілікті басқаша сипаттайтын факт) біз оларға қарасақ та, біз үшін қиын болуы мүмкін.

Әрі қарай - нашар. Бозғылт теріде қатерлі ісік табуда өте жақсы машиналық оқыту жүйесі қара теріде жақсы жұмыс істемеуі мүмкін немесе керісінше. Міндетті түрде біркелкі емес, бірақ әртүрлі сипаттамаларды таңдай отырып, басқа тері түсі үшін бөлек модель жасау қажет болғандықтан. Кескінді тану сияқты тар аймақта да машиналық оқыту жүйелерін алмастыруға болмайды. Қажетті дәлдікке қол жеткізгенше сізді қызықтыратын деректердегі мүмкіндіктерді жақсы меңгеру үшін жүйені кейде сынақ және қате арқылы өзгерту керек. Бірақ сіз байқамайтын нәрсе - бұл жүйе бір топпен уақыттың 98%, ал екіншісімен тек 91% (адам талдауынан да дәлірек) дәл.

Осы уақытқа дейін мен негізінен адамдарға және олардың сипаттамаларына қатысты мысалдарды қолдандым. Бұл мәселе төңірегіндегі пікірталас негізінен осы тақырыпқа бағытталған. Бірақ адамдарға біржақты қарау мәселенің бір бөлігі ғана екенін түсіну маңызды. Біз машиналық оқытуды көп нәрсе үшін қолданатын боламыз және іріктеу қатесі олардың барлығына қатысты болады. Екінші жағынан, егер сіз адамдармен жұмыс жасасаңыз, деректердегі ауытқулар оларға қатысты болмауы мүмкін.

Мұны түсіну үшін тері қатерлі ісігінің мысалына оралайық және жүйенің сәтсіздігінің үш гипотетикалық мүмкіндігін қарастырайық.

  1. Адамдардың гетерогенді таралуы: пигментацияға байланысты жалған позитивтерге немесе жалған негативтерге әкелетін әртүрлі тері реңктерінің фотосуреттерінің теңгерімсіз саны.
  2. Жүйе оқытылатын деректерде адамдармен байланысы жоқ және диагностикалық мәні жоқ жиі кездесетін және біркелкі таралатын ерекшелік бар: тері ісігі фотосуреттеріндегі сызғыш немесе қой фотосуреттеріндегі шөп. Бұл жағдайда, егер жүйе адам көзі «сызғыш» ретінде анықтайтын нәрсенің кескініндегі пикселдерді тапса, нәтиже басқаша болады.
  3. Деректерде адам іздесе де көре алмайтын үшінші тарап сипаттамасы бар.

Бұл нені білдіреді? Біз деректердің әртүрлі адамдар топтарын басқаша көрсетуі мүмкін екенін априори білеміз және кем дегенде мұндай ерекшеліктерді іздеуді жоспарлай аламыз. Басқаша айтқанда, адамдар топтары туралы деректерде кейбір бұрмаланулар бар деп болжауға көптеген әлеуметтік себептер бар. Сызғышпен бірге фотоға қарасақ, біз бұл сызғышты көреміз - біз бұған дейін оның маңызды емес екенін біле тұра, жүйе ештеңе білмейтінін ұмытып кеткенбіз.

Бірақ сіздің сау теріңіздің барлық фотосуреттері кеңседе қыздыру шамында түсірілсе, ал сау теріңіз флуоресцентті жарық астында түсірілсе ше? Сау теріні түсіріп болғаннан кейін, жарамсыз теріні түсірмес бұрын телефоныңыздағы операциялық жүйені жаңартсаңыз және Apple немесе Google шуды азайту алгоритмін сәл өзгерткен болсаңыз ше? Адам мұндай қасиеттерді қанша іздесе де байқай алмайды. Бірақ машинаны пайдалану жүйесі мұны бірден көреді және пайдаланады. Ол ештеңе білмейді.

Осы уақытқа дейін біз жалған корреляциялар туралы айттық, бірақ деректер дәл және нәтижелер дұрыс болуы мүмкін, бірақ сіз оларды этикалық, заңды немесе басқарушылық себептермен пайдаланғыңыз келмейді. Кейбір юрисдикциялар, мысалы, әйелдер қауіпсіз жүргізушілер болуы мүмкін болса да, әйелдерге сақтандыру бойынша жеңілдік алуға рұқсат бермейді. Тарихи деректерді талдағанда, әйел есімдеріне тәуекелдің төмен факторын тағайындайтын жүйені оңай елестете аламыз. Жарайды, атауларды таңдаудан алып тастайық. Бірақ Amazon мысалын есте сақтаңыз: жүйе жынысты басқа факторларға байланысты анықтай алады (тіпті ол жыныстың не екенін, тіпті көліктің не екенін білмейді) және реттеуші сіздің тарифтеріңізді ретроактивті түрде талдамайынша, сіз мұны байқамайсыз. ұсыныс пен төлемдер сізге айыппұл салынады.

Ақырында, біз мұндай жүйелерді адамдар мен әлеуметтік өзара әрекеттесуді қамтитын жобалар үшін ғана қолданамыз деп жиі болжанады. Бұл олай емес. Егер сіз газ турбиналарын жасасаңыз, өніміңіздегі ондаған немесе жүздеген сенсорлар (аудио, бейне, температура және кез келген басқа сенсорлар машина жасау үшін өте оңай бейімделетін деректерді жасайды) арқылы берілетін телеметрияға машиналық оқытуды қолданғыңыз келуі мүмкін. оқыту моделі). Гипотетикалық түрде сіз: «Міне, олар істен шыққанға дейін істен шыққан мың турбинаның деректері және міне, істен шықпаған мың турбинаның деректері. Олардың арасындағы айырмашылық неде екенін айту үшін үлгі құрастыр». Енді елестетіп көріңізші, Siemens сенсорлары нашар турбиналардың 75% -ында және жақсылардың тек 12% -ында (ақаулармен байланысы жоқ) орнатылған. Жүйе Siemens сенсорлары бар турбиналарды табу үшін модель құрастырады. Ой!

Жасанды интеллект туралы
Сурет — Мориц Хардт, UC Беркли

AI бейімділігін басқару

Бұл туралы не істей аламыз? Мәселені үш қырынан қарастыруға болады:

  1. Жүйені оқыту үшін деректерді жинау және басқарудағы әдістемелік қатаңдық.
  2. Үлгінің мінез-құлқын талдау және диагностикалаудың техникалық құралдары.
  3. Өнімдерге машиналық оқытуды енгізу кезінде оқытыңыз, оқытыңыз және абай болыңыз.

Мольердің «Дворяндық буржуазия» кітабында бір әзіл бар: бір адамға әдебиет проза мен поэзияға бөлінгенін айтып, ол өзінің өмір бойы прозада сөйлеп келгенін білгенде қуанған. Бүгінде статистика мамандары осылай сезінетін шығар: олар өз мансабын жасанды интеллектке және іріктеу қатесіне арнады. Таңдау қатесін іздеу және ол туралы алаңдау жаңа мәселе емес, тек оның шешіміне жүйелі түрде жақындау керек. Жоғарыда айтылғандай, кейбір жағдайларда адамдар деректеріне қатысты мәселелерді зерттеу арқылы мұны істеу оңайырақ. Біз адамдардың әртүрлі топтарына қатысты алдын ала көзқарастарымыз болуы мүмкін деп есептейміз, бірақ Siemens сенсорлары туралы алдын ала пікірді елестету бізге қиын.

Мұның бәрінің жаңалығы, әрине, адамдар енді тікелей статистикалық талдау жасамайды. Оны түсіну қиын үлкен, күрделі үлгілерді жасайтын машиналар жүзеге асырады. Транспаренттілік мәселесі біржақтылық мәселесінің негізгі аспектілерінің бірі болып табылады. Біз жүйе жай ғана бейтарап емес деп қорқамыз, бірақ оның ауытқуын анықтаудың ешқандай жолы жоқ және машиналық оқыту сынауға болатын нақты логикалық қадамдардан тұруы керек автоматтандырудың басқа түрлерінен ерекшеленеді.

Бұл жерде екі мәселе бар. Біз әлі де машиналық оқыту жүйелерінің қандай да бір аудитін жүргізе аламыз. Кез келген басқа жүйені тексеру іс жүзінде оңай емес.

Біріншіден, машиналық оқыту саласындағы заманауи зерттеулердің бағыттарының бірі машиналық оқыту жүйелерінің маңызды функционалдығын анықтау әдістерін іздеу болып табылады. Яғни, машиналық оқыту (қазіргі күйінде) - бұл тез өзгеретін ғылымның мүлдем жаңа саласы, сондықтан бүгін мүмкін емес нәрселер жақын арада нақты бола алмайды деп ойламаңыз. Жоба OpenAI - бұл қызықты мысал.

Екіншіден, қолданыстағы жүйелердің немесе ұйымдардың шешім қабылдау процесін сынауға және түсінуге болады деген идея теорияда жақсы, бірақ іс жүзінде солай. Үлкен ұйымда шешімдердің қалай қабылданатынын түсіну оңай емес. Ресми шешім қабылдау процесі болғанның өзінде, ол адамдардың іс жүзінде қалай әрекет ететінін көрсетпейді және олардың өздері шешім қабылдауда жиі логикалық, жүйелі көзқарасқа ие болмайды. Әріптесім айтқандай Виджай Панде, адамдар да қара жәшік.

Бірін-бірі қайталайтын бірнеше компания мен мекемеге мың адамды алсаңыз, мәселе одан сайын күрделене түседі. Біз ғарыш кемесінің қайтып оралғанда ыдырайтынын білеміз және NASA құрамындағы адамдарда жаман нәрсе болуы мүмкін деп ойлауға негіз болатын ақпарат болған, бірақ жүйе жалпы Мен мұны білмедім. NASA бұрынғы шаттлды жоғалтқаннан кейін дәл осындай аудиттен өтті, бірақ ол өте ұқсас себеппен тағы біреуін жоғалтты. Ұйымдар мен адамдар сынауға, түсінуге және өзгертуге болатын анық, логикалық ережелерді ұстанады деп айту оңай, бірақ тәжірибе басқаша дәлелдейді. Бұл «Госпланның адасуы«.

Мен жиі машиналық оқытуды дерекқорлармен, әсіресе реляциялық – информатиканың және оны қоршаған әлемнің мүмкіндіктерін өзгерткен, барлығының бір бөлігіне айналған, біз байқамай үнемі қолданатын жаңа іргелі технологиямен салыстырамын. Деректер базаларында да проблемалар бар және олар ұқсас сипатта: жүйе нашар болжамдарға немесе нашар деректерге құрылуы мүмкін, бірақ оны байқау қиын болады және жүйені пайдаланатын адамдар сұрақ қоймастан оның айтқанын орындайды. Бір кездері сіздің атыңызды қате жазған салықшылар туралы көптеген ескі әзілдер бар және оларды қатені түзетуге сендіру атыңызды өзгертуден әлдеқайда қиын. Бұл туралы ойланудың көптеген жолдары бар, бірақ қайсысы жақсы екені белгісіз: SQL-дегі техникалық мәселе немесе Oracle шығарылымындағы қате немесе бюрократиялық институттардың сәтсіздігі ретінде ме? Жүйеде қатені түзету мүмкіндігінің болмауына әкелген процесте қатені табу қаншалықты қиын? Мұны адамдар шағымданбай тұрып анықтауға болар ма еді?

Бұл мәселе драйверлер навигатордағы ескірген деректерге байланысты өзенге айдаған кездегі оқиғалармен оңайырақ суреттелген. Жарайды, карталарды үнемі жаңартып отыру керек. Сіздің көлігіңіздің теңізге ұшып кетуіне TomTom қаншалықты кінәлі?

Мұны айтып отырған себебім, иә, машинаны үйренуге бейімділік проблемалар тудырады. Бірақ бұл проблемалар біз бұрын кездескен проблемаларға ұқсас болады және оларды байқап, шешуге (немесе жоққа) біз бұрынғыдай бола аламыз. Сондықтан, AI бейімділігі зиян келтіретін сценарий үлкен ұйымда жұмыс істейтін аға зерттеушілермен кездесуі екіталай. Кейбір елеусіз технология мердігері немесе бағдарламалық жасақтама жеткізушісі ашық бастапқы коды бар компоненттерді, кітапханаларды және өздері түсінбейтін құралдарды пайдаланып, бірдеңе жазатын шығар. Ал бақытсыз клиент өнім сипаттамасында «жасанды интеллект» деген сөз тіркесін сатып алады және ешқандай сұрақ қоймай, оны аз жалақы алатын қызметкерлеріне таратады, оларға AI айтқанын орындауды бұйырады. Дерекқорлармен дәл осылай болды. Бұл жасанды интеллект мәселесі немесе тіпті бағдарламалық қамтамасыз ету мәселесі емес. Бұл адам факторы.

қорытынды

Машиналық оқыту итке үйрететін кез келген нәрсені жасай алады - бірақ сіз итке нақты не үйреткеніңізге ешқашан сенімді бола алмайсыз.

Мен көбінесе «жасанды интеллект» термині тек осындай әңгімелерге кедергі болатындай сезінемін. Бұл термин біз оны шын мәнінде жасаған деген жалған әсер береді - бұл интеллект. Біз HAL9000 немесе Skynet-ке бара жатырмыз - бұл шын мәнінде түсінеді. Бірақ жоқ. Бұл жай ғана машиналар және оларды, айталық, кір жуғыш машинамен салыстыру әлдеқайда дәлірек. Ол адамға қарағанда әлдеқайда жақсы кірді жуады, бірақ оған кірдің орнына ыдыс қойсаңыз, ол... жуады. Ыдыс-аяқтар тіпті таза болады. Бірақ бұл сіз күткендей болмайды және бұл болмайды, өйткені жүйеде ыдыс-аяққа қатысты қандай да бір теріс пікір бар. Кір жуғыш машина ыдыс-аяқтың не екенін және қандай киім екенін білмейді - бұл автоматтандырудың мысалы ғана, концептуалды түрде процестердің бұрын автоматтандырылғанынан айырмашылығы жоқ.

Автокөліктер, ұшақтар немесе дерекқорлар туралы айтамыз ба, бұл жүйелер өте қуатты және өте шектеулі болады. Олар толығымен адамдардың осы жүйелерді қалай пайдаланатынына, олардың ниеттері жақсы немесе жаман екеніне және олардың қалай жұмыс істейтінін қаншалықты түсінетініне байланысты болады.

Сондықтан, «жасанды интеллект - математика, сондықтан оның біржақты болуы мүмкін емес» деу мүлдем жалған. Бірақ машиналық оқыту «табиғаты бойынша субъективті» деп айту да бірдей жалған. Машиналық оқыту деректердегі үлгілерді табады және ол қандай үлгілерді табатыны деректерге байланысты, ал деректер бізге байланысты. Дәл біз олармен істегеніміз сияқты. Машиналық оқыту кейбір нәрселерді бізден әлдеқайда жақсырақ жасайды - бірақ иттер, мысалы, есірткіні анықтауда адамдарға қарағанда әлдеқайда тиімді, бұл оларды куәгер ретінде пайдалануға және олардың айғақтары негізінде үкім шығаруға себеп емес. Айтпақшы, иттер кез келген машиналық оқыту жүйесіне қарағанда әлдеқайда ақылды.

Аударма: Диана Лецкая.
Өңдеу: Алексей Иванов.
Қоғамдастық: @PonchikNews.

Ақпарат көзі: www.habr.com

пікір қалдыру