ಎಚ್ಚರ! ನೈಜ ಅಲ್ಲ, ಇದು Deep Fake ತಂತ್ರಜ್ಞಾನ

0
215

What is Deep Fake Technology: ಬನ್ನಿ ತಿಳಿದುಕೊಳ್ಳೋಣ.

ಯಾಂತ್ರಿಕ ಬುದ್ಧಿಮತ್ತೆ (ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟೆಲಿಜೆನ್ಸ್-ಎಐ) ಇಂದು ನಮಗರಿವಿಲ್ಲದಂತೆಯೇ ನಮ್ಮ ದೈನಂದಿನ ಜೀವನದ ಭಾಗವಾಗಿಬಿಟ್ಟಿದೆ. ಅಂತರಜಾಲ ಬಳಸುವ ಎಲ್ಲರಿಗೂ ಇದು ಅರಿವಿಗೆ ಬಂದಿರಬೇಕು. ಒಂದು ಉದಾಹರಣೆ ಹೇಳುವುದಾದರೆ, ನಾವಿಂದು ಬಳಸುವ ಅತ್ಯಾಧುನಿಕ ವೈಶಿಷ್ಟ್ಯಗಳಿರುವ ಸ್ಮಾರ್ಟ್‌ಫೋನ್ ಕ್ಯಾಮೆರಾ. ಅದರ ಕಣ್ಣಿನ (ಲೆನ್ಸ್) ಮೂಲಕ ನಿರ್ದಿಷ್ಟ ವಸ್ತುವನ್ನು ನೋಡಿದರೆ, ತಂತ್ರಜ್ಞಾನವೇ ಆ ವಸ್ತುವನ್ನು ಗುರುತಿಸಿ, ಅದಕ್ಕೆ ಸಂಬಂಧಿಸಿದ ಮಾಹಿತಿಯನ್ನು ಅಂತರಜಾಲದಲ್ಲಿ ಜಾಲಾಡಿ ನಮ್ಮ ಮುಂದಿಡಬಲ್ಲುದು. ಇದನ್ನು ಕೆಲವರು ಒಳ್ಳೆಯ ವಿಷಯಕ್ಕೆ ಬಳಸುತ್ತಿದ್ದು, ಸ್ಮಾರ್ಟ್‌ಫೋನ್ ತಯಾರಿಕಾ ಕಂಪನಿಗಳಂತೂ, ಇದನ್ನು ಎಐ ಕ್ಯಾಮೆರಾ ಅಂತಲೇ ಕರೆಯತೊಡಗಿವೆ.

ಇಂತಿರಲಾಗಿ, ಇತ್ತೀಚೆಗೆ ಸದ್ದು ಮಾಡಿದ ವಿಚಾರವೆಂದರೆ ಮೈಕ್ರೋಸಾಫ್ಟ್ ಸಹ-ಸಂಸ್ಥಾಪಕ ಬಿಲ್ ಗೇಟ್ಸ್ ಅವರ ವಿಡಿಯೊ ಸಂದರ್ಶನ. ಮೈಕ್ರೋಸಾಫ್ಟ್ ಕಂಪನಿಯಿಂದಲೇ ತಂತ್ರಾಂಶವನ್ನು ಕದ್ದು, ಕೋವಿಡ್ 19 ಲಸಿಕೆಯಲ್ಲಿ ಕೋಟ್ಯಂತರ ದುಡ್ಡು ಮಾಡಿದ್ದೀರಿ ಎಂದು ಗೇಟ್ಸ್ ಅವರ ಮೇಲೆ ಪತ್ರಕರ್ತರೊಬ್ಬರು ಆಪಾದಿಸಿರುವ ವಿಷಯ ಅಂತರಜಾಲದಲ್ಲಿ ಹರಿದಾಡಿತ್ತು. ಗೇಟ್ಸ್ ಅವರೇ ತೀರಾ ಕಳವಳಕ್ಕೀಡಾಗಿರುವುದು ಅದರಲ್ಲಿ ಸ್ಪಷ್ಟವಾಗಿ ಗೋಚರಿಸುತ್ತಿತ್ತು.

ಇದು ಡೀಪ್ ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ! ಇದರಿಂದ ಯಾವುದೇ ಅಸಲಿ ವ್ಯಕ್ತಿಯ ನಕಲಿ ವಿಡಿಯೊವನ್ನು ಒಂದಿನಿತೂ ಶಂಕೆ ಬಾರದಂತೆ ತಯಾರಿಸಬಹುದು. ಅದಕ್ಕೆ ಮಾತು ಜೋಡಿಸಿ, ಸಂಬಂಧಿತ ಧ್ವನಿ ಮಾರ್ಪಡಿಸಿ, ತುಟಿಯ ಚಲನೆಯನ್ನು ಆ ಮಾತಿಗೆ ಅನುಗುಣವಾಗಿ ಮಾಡಬಲ್ಲುದು ಈ ಡೀಪ್ ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ. ಈಗಿನ ಫೇಸ್‌ಬುಕ್, ವಾಟ್ಸ್ಆ್ಯಪ್ ಮುಂತಾದ ಸಾಮಾಜಿಕ ಮಾಧ್ಯಮಗಳಲ್ಲಿ ಸುಳ್ಳು ಸುದ್ದಿ, ನಕಲಿ ಸುದ್ದಿ ಅಥವಾ ಮಾಹಿತಿ ಹರಡುವ ಅಂತರಜಾಲ-ಕೀಟಲೆಕೋರರ ಕೈಗೆ ಸಿಕ್ಕಿರುವ ಬಲವಾದ ಸಲಕರಣೆಯಿದು.

ಗೇಟ್ಸ್ ಸಂದರ್ಶನದ ವಿಡಿಯೊದ ಬಗ್ಗೆ ಹೇಳುವುದಾದರೆ, ಆಸ್ಟ್ರೇಲಿಯಾದ ಎಬಿಸಿ ನ್ಯೂಸ್ ಚಾನೆಲ್‌ನ ಸಾರಾ ಫರ್ಗ್ಯುಸನ್ ಅವರು ಬಿಲ್ ಗೇಟ್ಸ್ ಸಂದರ್ಶನ ಮಾಡಿದ್ದರು ಮತ್ತು ಅದು ಪ್ರಸಾರವಾಗಿತ್ತು. ಟಿಕ್-ಟಾಕ್ ಬಳಕೆದಾರನೊಬ್ಬ ಅದನ್ನೇ ತೆಗೆದುಕೊಂಡು ಡೀಪ್ ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ, ಮಾರ್ಪಡಿಸಿ ವಿಡಿಯೊ ಹರಿಯಬಿಟ್ಟಿದ್ದ. ಅದನ್ನು ಬಳಿಕ ಆತ ಡಿಲೀಟ್ ಮಾಡಿದ್ದಾನೆ. ಇದೇ ಖಾತೆಯಿಂದ ಹಿಂದೆಯೂ ಜೋ ಬೈಡನ್, ವ್ಲಾಡಿಮಿರ್ ಪುಟಿನ್ ಮುಂತಾದ ಪ್ರಸಿದ್ಧರ ಫೇಕ್ ವಿಡಿಯೊಗಳನ್ನು ಆತ ಪೋಸ್ಟ್ ಮಾಡಿದ್ದ. ತಂತ್ರಜ್ಞಾನದ ಸದ್ಬಳಕೆ ಮತ್ತು ದುರ್ಬಳಕೆಯ ನಡುವಿನ ವ್ಯತ್ಯಾಸವನ್ನೂ, ಮುಂದೆ ಕಾದಿರುವ ಅಪಾಯವನ್ನೂ ಸೂಚ್ಯವಾಗಿ ತಿಳಿಸಿದ ವಿದ್ಯಮಾನವಿದು.

ಏನಿದು ಡೀಪ್ ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ?
ಯಾಂತ್ರಿಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ಮತ್ತು ಯಾಂತ್ರಿಕ ಕಲಿಕೆಯ (ಮೆಷಿನ್ ಲರ್ನಿಂಗ್) ಕ್ರಮಾವಳಿ (ಆಲ್ಗರಿದಂ) ಉಪಯೋಗಿಸಿ, ಅಸಲಿ ಅಲ್ಲವೆಂದು ಸ್ವಲ್ಪವೂ ತಿಳಿಯದಂತೆ ನಕಲಿ ಚಿತ್ರಗಳು, ವಿಡಿಯೊ ಅಥವಾ ಆಡಿಯೊಗಳನ್ನು ತಯಾರಿಸುವುದೇ ಡೀಪ್ ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ. ಇದಕ್ಕಾಗಿ ಈಗಾಗಲೇ ಲಭ್ಯವಿರುವ ಒಳ್ಳೆಯ ಚಿತ್ರ, ವಿಡಿಯೊ, ಆಡಿಯೊಗಳ ದತ್ತಾಂಶದ ದೊಡ್ಡ ಸಂಚಯವನ್ನೇ ಬಳಸಿ, ಆಲ್ಗರಿದಂಗೆ ಊಡಿಸಲಾಗುತ್ತದೆ. ಈಗಿನ ಕಾಲದ ಮೊಬೈಲ್ ಗೇಮ್‌ಗಳಲ್ಲಿ ಇಂತಹ ಅದೆಷ್ಟೋ ಪಾತ್ರಗಳನ್ನು ನಾವು ನೋಡಬಹುದು. ಜನರನ್ನು ವಂಚಿಸುವುದಕ್ಕಾಗಿ, ವಿಷಯ ತಿರುಚಲು, ಹೇಳದಿರುವುದನ್ನು ಹೇಳಿದಂತೆ, ಮಾಡದಿರುವುದನ್ನು ಮಾಡಿದಂತೆ ತೋರಿಸಲು ಈ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಲಾಗುತ್ತದೆ.

ಕರ್ನಾಟಕದಲ್ಲಿ ಚುನಾವಣೆಗಳು ಸಮೀಪಿಸುತ್ತಿರುವುದರಿಂದ, ಪಕ್ಷಗಳ ಅಭ್ಯರ್ಥಿಗಳ ಬಗೆಗೆ, ಮುಖಂಡರ ಬಗೆಗೆ ಇದೇ ರೀತಿಯ ಸಾಕಷ್ಟು ನಕಲಿ ಆಡಿಯೊ, ವಿಡಿಯೊ ಪ್ರಸಾರವಾದರೂ ಅಚ್ಚರಿಯಿಲ್ಲ. ಕೆಲವು ತಿಂಗಳ ಹಿಂದೆ, ವಿಡಿಯೊ ಗೇಮ್‌ಗಾಗಿ ರಚಿಸಲಾಗಿದ್ದ ವಿಡಿಯೊ ತುಣುಕೊಂದನ್ನು ಮಾರ್ಪಡಿಸಿ ಮಲೇಷ್ಯಾ ವಿಮಾನ ಪತನದ ದೃಶ್ಯವೆಂದು ಅಂತರಜಾಲದಲ್ಲಿ ಹಂಚಲಾಗಿತ್ತು. ತೀರಾ ಇತ್ತೀಚೆಗೆ ವಾಟ್ಸ್ಆ್ಯಪ್‌ನಲ್ಲಿ ಒಂದು ವಿಡಿಯೊ ಬಂದಿತ್ತು. ಡೀಪ್ ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದ ವಂಚನೆಗೆ ಸಿಲುಕದಂತಿರಲು ಜಾಗೃತಿ ಮೂಡಿಸುವ ವಿಡಿಯೊ ಅದಾಗಿತ್ತು. ವಿಡಿಯೊದ ಕೆಳ ಫ್ರೇಮ್‌ನಲ್ಲಿ ವ್ಯಕ್ತಿಯೊಬ್ಬರು ಈ ಬಗ್ಗೆ ಎಚ್ಚರಿಕೆ ನೀಡುತ್ತಾ ಹೋಗುತ್ತಾರೆ, ಮೇಲಿನ ಫ್ರೇಮ್‌ನ ವಿಡಿಯೊದಲ್ಲಿ ಅದೇ ಆಡಿಯೊ ಅನುಗುಣವಾಗಿ ವ್ಯಕ್ತಿಯು ಶಾರುಖ್ ಖಾನ್, ವಿರಾಟ್ ಕೊಹ್ಲಿ, ಜೋ ಬೈಡನ್ ಇತ್ಯಾದಿಯಾಗಿ ಬದಲಾಗುತ್ತಾ, ಮಾತನಾಡುವುದನ್ನು ತೋರಿಸಲಾಗಿತ್ತು. ಮೇಲಿನದನ್ನು ಮಾತ್ರವೇ ಹಂಚಿಕೊಂಡರೆ, ಅದು ಆತನೇ ಹೇಳಿದ್ದೆಂದು ನಂಬಬೇಕಾಗುತ್ತದೆ. ಒಳ್ಳೆಯ ಉದ್ದೇಶಕ್ಕಾಗಿ ಬಳಕೆಯಾಗಬೇಕಿದ್ದ ತಂತ್ರಜ್ಞಾನವಿಂದು ಸಮಾಜ-ವಿರೋಧಿ ಕೃತ್ಯಕ್ಕಾಗಿ ಅಥವಾ ಸುಳ್ಳು ಸುದ್ದಿ ಸೃಷ್ಟಿಸಲು ಬಳಕೆಯಾಗುತ್ತದೆ.

ಫೇಕ್ ವಿಡಿಯೊಗಳನ್ನು ಗುರುತಿಸುವುದು ಹೇಗೆ?
ಇದಕ್ಕೆ ಕಣ್ಣುಗಳು ಸೂಕ್ಷ್ಮವಾಗಿರಬೇಕಾಗುತ್ತದೆ. ವಿಡಿಯೊ ಅಥವಾ ಚಿತ್ರದಲ್ಲಿರುವ ಮುಖವನ್ನು, ಮುಖ ಭಾವವನ್ನು, ಮುಖದ, ಬಾಯಿಯ ಸುತ್ತಲಿನ ನೆರಿಗೆಗಳನ್ನು, ಹಣೆಯನ್ನು, ಕಣ್ಣುಗಳ ಆಕಾರವನ್ನು, ಹುಬ್ಬುಗಳ ಆಕಾರವನ್ನು, ಚರ್ಯೆ ಬದಲಾಗುವುದನ್ನು, ಉಚ್ಚರಿಸುವಾಗ ಆಗಬಹುದಾದ ಮುಖದ ಭಾವಗಳನ್ನು, ಚರ್ಮ ಅಥವಾ ಕೂದಲಿನ ವಯಸ್ಸನ್ನು – ಹೀಗೆ ಪ್ರತಿಯೊಂದನ್ನೂ ಅತ್ಯಂತ ಸೂಕ್ಷ್ಮವಾಗಿ ಗಮನಿಸಬೇಕಾಗುತ್ತದೆ. ಕನ್ನಡಕವಿದ್ದರೆ, ಅದಕ್ಕೆ ಬೀಳುವ ಬೆಳಕಿನ ಪ್ರತಿಫಲನವನ್ನು, ಮುಖದಲ್ಲಿರಬಹುದಾದ ಮಚ್ಚೆಯನ್ನು, ಮುಖದ ರೋಮಗಳಲ್ಲೇನಾದರೂ ವ್ಯತ್ಯಾಸವನ್ನು, ತುಟಿಗಳ ಚಲನೆಯನ್ನು, ಕಣ್ಣು ರೆಪ್ಪೆ ಮುಚ್ಚುವಾಗಿನ ಕ್ರಮವನ್ನೆಲ್ಲ ಗಮನಿಸಿದರೆ, ಖಚಿತವಾಗಿ ಗುರುತಿಸುವಷ್ಟಲ್ಲದಿದ್ದರೂ, ಸ್ವಲ್ಪಮಟ್ಟಿನ ಸಂದೇಹ ಬರುವುದಕ್ಕೆ ಸಾಧ್ಯ. ಅತ್ಯಂತ ಹೆಚ್ಚು ಗುಣಮಟ್ಟದ ವಿಡಿಯೊಗಳಲ್ಲಿ ಈ ಸೂಕ್ಷ್ಮಗಳನ್ನು ಗಮನಿಸುವುದು ತೀರಾ ಕಷ್ಟ. ಹೀಗಾಗಿ ಅಂತರಜಾಲದಲ್ಲಿ ಬರುವುದೆಲ್ಲವೂ ಅಸಲಿಯೇ ಎನ್ನುವಂತಿಲ್ಲ ಎಂಬ ಸಂದೇಹ ನಮಗಿರಲೇಬೇಕು.

My (Avinash B) Tech Article Published in Prajavani on 15 Mar 2023

LEAVE A REPLY

Please enter your comment!
Please enter your name here