మనిషిని పోలిన అవతార్.. వీడియో కాల్ స్కామ్.. బీ అలెర్ట్..
ఎ.ఐ. ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ అని పిలవబడేది నేడు ప్రపంచవ్యాప్తంగా ప్రాచుర్యం పొందుతోంది. మనిషిని పోలిన అవతార్ను రూపొందించే సామర్థ్యాన్ని ఉపయోగించి విస్మయపరిచే స్కామ్ జరుగుతుందని సైబర్ క్రైమ్ పోలీసులు హెచ్చరించారు.
డీప్యాక్ టెక్నాలజీని ఉపయోగించి నకిలీ ఆడియో, వీడియో లేదా ఫోటోలను నిజమైన ఆడియో, వీడియో లేదా ఫోటోలలాగా రూపొందించి, వివిధ రకాల మోసాలకు మార్గం సుగమం చేస్తుంది. ప్రారంభంలో, ఈ సాంకేతికతను చిత్రనిర్మాతలు వినోద ప్రయోజనాల కోసం నటీనటులను సజావుగా సన్నివేశాల్లోకి చేర్చడానికి లేదా చారిత్రక వ్యక్తులను చిత్రీకరించడానికి ఉపయోగించారు.
అయితే, సాంకేతికత అభివృద్ధి చెందుతున్న కొద్దీ, నేరస్థులు ఈ అధికారాన్ని దుర్వినియోగం చేయడానికి ప్రయత్నిస్తారు. ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ ద్వారా ఆధారితమైన వీడియో కాల్ స్కామ్ ప్రారంభమవుతోంది.
మోసగాళ్లు ముందుగా దొంగిలించబడిన చిత్రాలు లేదా బాధితుడి స్నేహితులు లేదా కుటుంబ సభ్యులు వంటి విశ్వసనీయ వ్యక్తుల ఆన్లైన్లో అందుబాటులో ఉన్న ఫోటోలను వారిలా కనిపించే నకిలీ ఖాతాను సృష్టించడానికి ఉపయోగిస్తారు.
ఆర్టిఫిషియల్ ఇంటెలిజెన్స్తో కూడిన డీప్-బ్యాగ్ టెక్నాలజీ బాధితురాలిని తెలిసిన స్నేహితుడు, కుటుంబ సభ్యుడు లేదా సహోద్యోగి వలె నటించడానికి సోషల్ మీడియా, ఇతర ఆన్లైన్ ప్లాట్ఫారమ్లలో అత్యంత వాస్తవిక వీడియో కాల్లను రూపొందించడానికి ఉపయోగించబడుతుంది.
అప్పుడు, బాధితుడు అత్యవసర భావాన్ని సృష్టించి వివిధ బ్యాంకు ఖాతాలకు డబ్బు పంపమని కోరాడు. డీప్బ్యాగ్లు వేషధారణలో ఉన్న వ్యక్తి యొక్క రూపాన్ని, ప్రవర్తనను అనుకరించడానికి సాంకేతికత ద్వారా జాగ్రత్తగా రూపొందించబడ్డాయి.
వీడియో మానిప్యులేషన్తో పాటు, మోసగాడు కృత్రిమ మేధస్సుతో రూపొందించిన వాయిస్ సింథసిస్ను ఉపయోగించి వ్యక్తి స్వరాన్ని అనుకరించాడు. ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ వీడియో కాల్ స్కామ్లను ఎలా నిరోధించాలంటే.. తెలియని నెంబర్ల నుండి వీడియో కాల్లను అంగీకరించవద్దు.
ఆన్లైన్లో షేర్ చేసే వ్యక్తిగత సమాచారాన్ని పరిమితం చేయాలి. వీడియో కాల్ స్కామ్కు గురైనట్లయితే, సైబర్ క్రైమ్ టోల్-ఫ్రీ హెల్ప్లైన్ నెంబర్ 1930కి డయల్ చేయండి. కేరళ రాష్ట్రంలో ఈ మోసం జరిగిందని, దీంతో అప్రమత్తమైనట్లు పోలీసులు తెలిపారు.