కోడ్ సెక్యూరిటీపై GitHub Copilot వంటి AI అసిస్టెంట్ల ప్రభావాన్ని అన్వేషించడం

స్టాన్‌ఫోర్డ్ యూనివర్శిటీకి చెందిన పరిశోధకుల బృందం ఇంటెలిజెంట్ కోడింగ్ అసిస్టెంట్‌లను ఉపయోగించడం వల్ల కోడ్‌లో దుర్బలత్వంపై ప్రభావం చూపుతుంది. OpenAI కోడెక్స్ మెషిన్ లెర్నింగ్ ప్లాట్‌ఫారమ్ ఆధారంగా పరిష్కారాలు పరిగణించబడ్డాయి, GitHub Copilot వంటివి, రెడీమేడ్ ఫంక్షన్‌ల వరకు చాలా క్లిష్టమైన కోడ్ బ్లాక్‌ల ఉత్పత్తిని అనుమతిస్తుంది. మెషిన్ లెర్నింగ్ మోడల్‌కు శిక్షణ ఇవ్వడానికి బలహీనతలను కలిగి ఉన్న పబ్లిక్ గిట్‌హబ్ రిపోజిటరీల నుండి నిజమైన కోడ్ ఉపయోగించబడుతుంది కాబట్టి, సంశ్లేషణ చేయబడిన కోడ్ లోపాలను పునరావృతం చేస్తుంది మరియు దుర్బలత్వాలను కలిగి ఉన్న కోడ్‌ను సూచించవచ్చు మరియు నిర్వహించాల్సిన అవసరాన్ని కూడా పరిగణనలోకి తీసుకోదు. బాహ్య డేటాను ప్రాసెస్ చేస్తున్నప్పుడు అదనపు తనిఖీలు.

ప్రోగ్రామింగ్‌లో విభిన్న అనుభవం ఉన్న 47 మంది వాలంటీర్లు అధ్యయనంలో పాల్గొన్నారు - విద్యార్థుల నుండి పది సంవత్సరాల అనుభవం ఉన్న నిపుణుల వరకు. పాల్గొనేవారిని రెండు గ్రూపులుగా విభజించారు - ప్రయోగాత్మక (33 మంది) మరియు నియంత్రణ (14 మంది). స్టాక్ ఓవర్‌ఫ్లో నుండి రెడీమేడ్ ఉదాహరణలను ఉపయోగించగల సామర్థ్యంతో సహా ఏవైనా లైబ్రరీలు మరియు ఇంటర్నెట్ వనరులకు రెండు సమూహాలకు ప్రాప్యత ఉంది. ప్రయోగాత్మక సమూహానికి AI సహాయకుడిని ఉపయోగించుకునే అవకాశం ఇవ్వబడింది.

ప్రతి పార్టిసిపెంట్‌కి రైటింగ్ కోడ్‌కి సంబంధించి 5 టాస్క్‌లు ఇవ్వబడ్డాయి, ఇందులో దుర్బలత్వాలకు దారితీసే తప్పులు చేయడం చాలా సులభం. ఉదాహరణకు, ఎన్‌క్రిప్షన్ మరియు డిక్రిప్షన్ ఫంక్షన్‌లను వ్రాయడం, డిజిటల్ సంతకాలను ఉపయోగించడం, ఫైల్ పాత్‌లు లేదా SQL ప్రశ్నల ఏర్పాటులో డేటాను ప్రాసెస్ చేయడం, C కోడ్‌లో పెద్ద సంఖ్యలను మార్చడం, వెబ్ పేజీలలో ప్రదర్శించబడే ఇన్‌పుట్‌ను ప్రాసెస్ చేయడం వంటి పనులు ఉన్నాయి. AI సహాయకులను ఉపయోగిస్తున్నప్పుడు ఉత్పత్తి చేయబడిన కోడ్ యొక్క భద్రతపై ప్రోగ్రామింగ్ భాషల ప్రభావాన్ని పరిగణనలోకి తీసుకోవడానికి, అసైన్‌మెంట్‌లు పైథాన్, సి మరియు జావాస్క్రిప్ట్‌లను కవర్ చేస్తాయి.

ఫలితంగా, కోడెక్స్-డావిన్సీ-002 మోడల్ ఆధారంగా ఇంటెలిజెంట్ AI అసిస్టెంట్‌ని ఉపయోగించిన పాల్గొనేవారు AI అసిస్టెంట్‌ని ఉపయోగించని పార్టిసిపెంట్‌ల కంటే తక్కువ సురక్షిత కోడ్‌ని తయారు చేసినట్లు కనుగొనబడింది. మొత్తంమీద, AI సహాయకుడిని ఉపయోగించిన సమూహంలో కేవలం 67% మంది మాత్రమే సరైన మరియు సురక్షితమైన కోడ్‌ను అందించగలిగారు, ఇతర సమూహంలో ఈ సంఖ్య 79%.

అదే సమయంలో, ఆత్మగౌరవ సూచికలు విరుద్ధంగా ఉన్నాయి - AI సహాయకుడిని ఉపయోగించిన పాల్గొనేవారు తమ కోడ్ ఇతర సమూహం నుండి పాల్గొనేవారి కంటే మరింత సురక్షితంగా ఉంటుందని విశ్వసించారు. అదనంగా, AI సహాయకుడిని తక్కువగా విశ్వసించిన పాల్గొనేవారు మరియు ఇచ్చిన ప్రాంప్ట్‌లను విశ్లేషించడానికి మరియు వాటికి మార్పులు చేయడంలో ఎక్కువ సమయం వెచ్చించిన వారు కోడ్‌లో తక్కువ దుర్బలత్వాలను సృష్టించారని గుర్తించబడింది.

ఉదాహరణకు, క్రిప్టోగ్రాఫిక్ లైబ్రరీల నుండి కాపీ చేయబడిన కోడ్ AI సహాయకుడు సూచించిన కోడ్ కంటే ఎక్కువ సురక్షితమైన డిఫాల్ట్ పారామీటర్ విలువలను కలిగి ఉంటుంది. అలాగే, AI సహాయకుడిని ఉపయోగిస్తున్నప్పుడు, తక్కువ విశ్వసనీయ ఎన్‌క్రిప్షన్ అల్గారిథమ్‌ల ఎంపిక మరియు తిరిగి వచ్చిన విలువల ప్రమాణీకరణ తనిఖీలు లేకపోవడం నమోదు చేయబడ్డాయి. Cలో నంబర్ మానిప్యులేషన్‌తో కూడిన టాస్క్‌లో, AI సహాయకాన్ని ఉపయోగించి వ్రాసిన కోడ్‌లో మరిన్ని లోపాలు జరిగాయి, ఇది పూర్ణాంక ఓవర్‌ఫ్లోకి దారితీసింది.

అదనంగా, నవంబర్‌లో న్యూయార్క్ యూనివర్శిటీకి చెందిన ఒక బృందం ఇదే విధమైన అధ్యయనాన్ని మేము గమనించవచ్చు, ఇందులో 58 మంది విద్యార్థులు సి లాంగ్వేజ్‌లో షాపింగ్ లిస్ట్‌ను ప్రాసెస్ చేయడానికి ఒక నిర్మాణాన్ని అమలు చేయమని అడిగారు. ఫలితాలు కోడ్ భద్రతపై AI సహాయకుడి యొక్క తక్కువ ప్రభావాన్ని చూపించాయి-AI సహాయకుడిని ఉపయోగించిన వినియోగదారులు సగటున 10% ఎక్కువ భద్రతా సంబంధిత లోపాలను చేసారు.

కోడ్ సెక్యూరిటీపై GitHub Copilot వంటి AI అసిస్టెంట్ల ప్రభావాన్ని అన్వేషించడం


మూలం: opennet.ru

ఒక వ్యాఖ్యను జోడించండి