Skip to content

AI වලින් බල ගැන්වුන රැවටිල්ල

ඉතිහාසය පුරාවට මිනිසුන් විවිධ ආකාරයේ රැවටීම් සහ වංචා සිදුකිරීම සඳහා නව තාක්ෂණික ක්‍රම භාවිතා කර තිබෙනවා. කෙසේ නමුත් එවැනි ක්‍රියාවන් සිදුකිරීම සඳහා බොහෝ විට විශේෂ දැනුමක් සහ උපකරණ අවශ්‍ය අවශ්‍ය විය. එනමුත් වර්තමානයේ කෘතීම බුද්ධි (AI) තාක්ෂණ වල සීග්‍ර දියුණුවත් සමග නිර්මාණය වන ඉතා පහසුවෙන් භාවිතා කල හැකි සමහරක් පරිගණක මෙවලම් නිසා විවිධ වංචනික ක්‍රියා සහ රැවටීම් සිදු කිරීමද දිනෙන් දින පහසු වෙමින් පවතිනවා. මෙවැනි ව්‍යාජ නිර්මාණ Deepfake ( "deep learning" and "fake" යන වචන වල එකතුවකින් සැදුන වචනයක්) ලෙස ද හදුන්වනු ලබනවා.

මේ ආකාරයේ රැවටීම් හදුනාගැනීමට සහ අවම කරගැනීමට අවශ්‍ය නව ක්‍රම උපාය සහ නීති සම්පාදනය කිරීමට කඩිනම්ව ක්‍රියාත්මක විය යුතු බව බොහෝ විද්වතුගේ මතයයි. ඊට අමතරව සමාජයක් ලෙස මේ පිළිබඳව දැනුවත්ව සිටීමෙන් අපට මෙම රැවටීම් අවම කරගන්න පුළුවන් කියල මම විශ්වාස කරනවා.

AI වල දියුණුව නිසා වර්ධනය වන වංචනික ක්‍රියා මෙසේ ප්‍රධාන කොටස් කිහිපයකට වෙන් කර දැක්විය හැකිය

ව්‍යාජ පින්තූර සැකසීම

වවිධ පින්තූර සංස්කරණය කිරීමේ වැඩසටහන් භාවිතා කර ව්‍යාජ පින්තූර සැකසීම හරහා චරිත ඝාතනය කිරීම්, අසත්‍ය ප්‍රචාර පැතිරවීම්, රැවටීමට ලක් කිරීම් ආදී ක්‍රියාවන් සිදු කිරීම අලුත් ප්‍රශ්නයක් නොවෙයි. කෙසේ නමුත් මෙවැනි ක්‍රියා සිදු කිරීම සඳහා මීට පෙර හොද තාක්ෂණික දැනුමක් අවශ්‍ය විය. AI image generate කිරීමේ තාක්ෂණයේ දියුණුව සමග ඕනෑම අයෙකුට මෙවැනි දේ පහසුවෙන් සිදුකල හැකි තත්වයක් නිර්මාණය වෙමින් පවතිනවා. පසුගිය දිනක ELIOT HIGGINS නම් මාධ්‍ය වේදියා පල කල හිටපු ඇමරිකානු ජනාදිපති ඩොනල්ඩ් ට්‍රම්ප් අත්අඩංගුවට ගැනීමේ නිර්මාණය කරන ලද පින්තූර මෙයට හොද උදාහරණයක්.

Fake images of trump getting arrested. source twitter

දැනට ඇති පින්තූර ඉතා හොදින් අධ්‍යනය කර අසත්‍ය එකක් දැයි හදුනා ගැනීමට ඇති හැකියාව වැඩිය. ඊට අමතරව ඒ වෙනුවෙන්ම නිර්මාණය කරන ලද පරිගණක වැඩසටහන්ද ඇත. කෙසේ නමුත් මේ සියල්ල රැවටිය හැකි මට්ටමේ අති ප්‍රබල AI වැඩසටහන් ඉදිරියෙදී පැමිණීමට බොහෝ ඉඩ ඇත. එනිසා පින්තුර ලෙස දකින දේවල් ලොකුවට විශ්වාස නොකර සිටීමට කාලය එළඹ ඇති බව මාගේ පුද්ගලික විශ්වාසයි.

Illuminarty
Detect AI Images With illuminarty.ai

ව්‍යාජ Video

ව්‍යාජ video නිර්මාණය කිරීම පින්තූර සැකසීමටත් වඩා අපහසු ක්‍රියාවලියක්ව පැවතිනි. නමුත් මේ වන විට AI වලින් බලගැන්වුන පහසුවෙන් භාවිතා කල හැකි deep fake video නිර්මාණය කිරීමේ සේවා බොහොමයක් ඇත. මෙම සේවාවන් ලබාදෙන ව්‍යාජ video වල ප්‍රමිතියද දිනෙන් දින දියුණු වෙමින් පවතියි. එත් සමගම මෙවැනි video භාවිතා කරමින් සිදු කරන නොමග යැවීම් සහ වංචනික ක්‍රියා ආදියද දිනෙන් දින ඉහල යමින් පවතියි.

පෙර ලිපියක සඳහන් කල අයුරින්  ජනප්‍රිය YouTube channel hack කර ඒ හරහා විවිධ scam ප්‍රචාරය කිරීමේ සිද්දීන් වලදී Elon musk වැනි ජනප්‍රිය පුද්ගලයින් ලෙස සැකසූ deep fake video යොදාගැනීම මේවැනි වංචා සඳහා එක උදාහරණයකි.

Screen capture of a fake Elon Musk live promoting crypto scam

මෙම තාක්ෂණයන්හි ඇති භයානක කම තවත් වැඩි වන්නේ සජීවී ව්‍යාජ video විකාශයන් සිදුකිරීමේ හැකියාව සමගය. Real-time face swap සහ Real-Time Voice Cloning වැනි තාක්ෂණ භාවිතා කරමින් සජීවීව වෙනත් පුද්ගලයකු ලෙස video මාධ්‍ය හරහා පෙනී සිටීමේ හැකියාව දැනටමත් ඇත. මෙම කාරනා සලකා බැලූ කල video call එකකින් දකින දෙය වත් විශ්වාස කල නොහැකි කාලයක් උදා වී ඇති බව මගේ අදහසයි.

deepfakevfx

ව්‍යාජ පැවරුම්.

පැවරුම් ඇසුරින් දක්ෂතා මනින උසස් අධ්‍යාපන වැඩසටහන් මේ වන විට ඉතා ජනප්‍රිය වී ඇත. Chat GPT වැනි large language models වල දියුණුවත් සමග සමහර සිසුන් තම පැවරුම් සම්පුර්ණයෙන් මෙම වැඩසටහන් භාවිතා කර ලියවා ගැනීමට පෙළබි සිටිනවා. මෙලෙස plagiarism පරික්ෂා වලටද හසු නොවන පරිදි සාර්ථකව තම පැවරුම් AI ලවා කරවා ගත් අවස්ථා පිළිබඳවද මේ වන විට අප රටේ ද අසන්නට ලැබෙනවා.

මෙවැනි වටපිටාවක් තුල සත්‍ය වශයෙන්ම වෙහස වී තම පැවරුම් සම්පුර්ණ කලද එයින් ලැබෙන අධ්‍යාපනික සුදුසුකමෙහි වටිනාකම අභියෝගයට ලක් වීමට ඉඩ තිබෙනවා.

විසඳුම කුමක්ද?

මෙම තාක්ෂණ භාවිතය සිමා කිරීම ඉතා අසීරු කාරණයක්. එසේ සිදු කිරීම තුලින් එහි වටිනා පල ප්‍රයෝජන ලබාගැනීමට ඈති අවස්ථාව මගහැරී යාමටද ඉඩ තිබෙනවා. මගේ අදහස නම් දැනට පවතින නීති රීති සහ ක්‍රමවේද මෙවැනි අබියෝග වලට මුහුණ දිය හැකි වන අයුරින් යාවත්කාලින කල යුතුයි. ඊට අමතරව මෙම රැවටීම් හදුනාගෙන ඒවාට විරුද්දව වැඩ කරන්නත් ඊට වඩා ප්‍රබල AI වැඩසටහන් නිර්මාණය කිරීමට සිදු වේවි.

සරලවම කිවහොත් නරක AI සමග සටන් කිරීමට හොඳ  AI නිර්මාණය කල යුතුව ඇත.

Latest