<?xml version="1.0" encoding="utf-8"?>        <rss version="2.0"
            xmlns:content="http://purl.org/rss/1.0/modules/content/"
            xmlns:dc="http://purl.org/dc/elements/1.1/"
            xmlns:atom="http://www.w3.org/2005/Atom">
            <channel>
                <atom:link href="https://sachkahoonpunjabi.com/deepfake/tag-32750" rel="self" type="application/rss+xml" />
                <generator>Sach Kahoon Punjabi RSS Feed Generator</generator>
                <title>Deepfake - Sach Kahoon Punjabi</title>
                <link>https://sachkahoonpunjabi.com/tag/32750/rss</link>
                <description>Deepfake RSS Feed</description>
                
                            <item>
                <title>Deepfake : ਡੀਪਫੇਕ ਖਿਲਾਫ 7 ਦਿਨਾਂ ’ਚ ਲਾਗੂ ਹੋਣਗੇ ਨਵੇਂ ਨਿਯਮ</title>
                                    <description>
                        <![CDATA[ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ’ਤੇ ਹੋ ਸਕਦੀ ਹੈ ਕਾਰਵਾਈ | Deepfake ਕੱਲ੍ਹ ਆਇਆ ਸੀ ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਦਾ ਡੀਪਫੇਕ ਵੀਡੀਓ | Deepfake ਨਵੀਂ ਦਿੱਲੀ (ਏਜੰਸੀ)। ਡੀਪਫੇਕ ਨੂੰ ਲੈ ਕੇ ਸਰਕਾਰ ਨਵੇਂ ਨਿਯਮ ਲਿਆ ਰਹੀ ਹੈ। ਕੇਂਦਰੀ ਮੰਤਰੀ ਰਾਜੀਵ ਚੰਦਰਸ਼ੇਖਰ ਨੇ ਅੱਜ ਭਾਵ 16 ਜਨਵਰੀ ਨੂੰ ਦੱਸਿਆ ਕਿ ਉਨ੍ਹਾਂ ਡੀਪਫੇਕ ’ਤੇ 2 ਮੀਟਿੰਗਾਂ ਕੀਤੀਆਂ। ਨਵੇਂ ਆਈਟੀ ਨਿਯਮਾਂ ’ਚ […]
]]>
                    </description>
                
                                    <content:encoded>
                        <![CDATA[<a href="https://sachkahoonpunjabi.com/breaking-news/new-rules-will-be-implemented-against-deepfake-in-seven-days/article-40611"><img src="https://sachkahoonpunjabi.com/media/400/2024-01/deepfake.jpg" alt=""></a><br /><h2 style="text-align:justify;">ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ’ਤੇ ਹੋ ਸਕਦੀ ਹੈ ਕਾਰਵਾਈ | Deepfake</h2>
<ul style="text-align:justify;">
<li>ਕੱਲ੍ਹ ਆਇਆ ਸੀ ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਦਾ ਡੀਪਫੇਕ ਵੀਡੀਓ | Deepfake</li>
</ul>
<p style="text-align:justify;"><strong>ਨਵੀਂ ਦਿੱਲੀ (ਏਜੰਸੀ)।</strong> ਡੀਪਫੇਕ ਨੂੰ ਲੈ ਕੇ ਸਰਕਾਰ ਨਵੇਂ ਨਿਯਮ ਲਿਆ ਰਹੀ ਹੈ। ਕੇਂਦਰੀ ਮੰਤਰੀ ਰਾਜੀਵ ਚੰਦਰਸ਼ੇਖਰ ਨੇ ਅੱਜ ਭਾਵ 16 ਜਨਵਰੀ ਨੂੰ ਦੱਸਿਆ ਕਿ ਉਨ੍ਹਾਂ ਡੀਪਫੇਕ ’ਤੇ 2 ਮੀਟਿੰਗਾਂ ਕੀਤੀਆਂ। ਨਵੇਂ ਆਈਟੀ ਨਿਯਮਾਂ ’ਚ ਗਲਤ ਸੂਚਨਾ ਅਤੇ ਡੀਪਫੇਕ ਨੂੰ ਲੈ ਕੇ ਵੱਡੇ ਉਪਬੰਧ ਹਨ। ਸਾਰਿਆਂ ਲਈ ਇਸ ਦੀ ਪਾਲਣਾ ਕਰਨਾ ਜ਼ਰੂਰੀ ਹੈ, ਨਹੀਂ ਤਾਂ ਕਾਰਵਾਈ ਕੀਤੀ ਜਾਵੇਗੀ। 7-8 ਦਿਨਾਂ ’ਚ ਨਵੇਂ ਆਈਟੀ ਨਿਯਮ ਨੋਟੀਫਾਈ ਕੀਤੇ ਜਾਣਗੇ। ਇਸ ਤੋਂ ਪਹਿਲਾਂ 23 ਨਵੰਬਰ ਨੂੰ ਕੇਂਦਰੀ ਮੰਤਰੀ ਅਸ਼ਵਿਨੀ ਵੈਸ਼ਨਵ ਨੇ ਕਿਹਾ ਸੀ ਕਿ ‘ਡੀਪਫੇਕ ਲੋਕਤੰਤਰ ਲਈ ਇੱਕ ਨਵਾਂ ਖਤਰਾ ਬਣ ਕੇ ਉੱਭਰਿਆ ਹੈ।’ ਕੇਂਦਰੀ ਮੰਤਰੀ ਨੇ ਦੱਸਿਆ ਸੀ ਕਿ ਸਾਰੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ’ਤੇ ਡੀਪਫੇਕ ਦੇ ਖਤਰੇ ਅਤੇ ਇਸ ਦੀ ਗੰਭੀਰਤਾ ਨੂੰ ਸਵੀਕਾਰ ਕੀਤਾ ਹੈ। ਵੈਸ਼ਨਵ ਨੇ ਕਿਹਾ ਸੀ ਕਿ ਡੀਪਫੇਕ ਦੇ ਨਿਰਮਾਤਾਵਾਂ ਅਤੇ ਇਸ ਨੂੰ ਹੋਸਟ ਕਰਨ ਵਾਲੇ ਪਲੇਟਫਾਰਮ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਤੈਅ ਕੀਤੀ ਜਾਵੇਗੀ। (Deepfake)</p>
<h4 class="entry-title td-module-title"><strong><a title="ਦੀਪਤੀ ਸ਼ਰਮਾ ਬਣੀ ICC Player of The Month" href="http://10.0.0.122:1245/deepti-sharma-became-icc-player-of-the-month/">ਦੀਪਤੀ ਸ਼ਰਮਾ ਬਣੀ ICC Player of The Month</a></strong></h4>
<h3 style="text-align:justify;">PM ਮੋਦੀ ਅਤੇ ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਦਾ ਡੀਪਫੇਕ ਵੀਡੀਓ ਬਣਿਆ ਸੀ | Deepfake</h3>
<p style="text-align:justify;">ਦੱਸ ਦੇਈਏ ਕਿ ਭਾਰਤ ਦੇ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਵੀ ਡੀਪਫੇਕ ’ਤੇ ਚਿੰਤਾ ਜ਼ਾਹਿਰ ਕਰ ਚੁੱਕੇ ਹਨ। ਉਨ੍ਹਾਂ ਦਾ ਇੱਕ ਡੀਪਫੇਕ ਵੀਡੀਓ ਬਣਿਆ ਸੀ। ਹੁਣ ਹਾਲ ਹੀ ’ਚ ਭਾਰਤ ਦੇ ਸਟਾਰ ਅਤੇ ਸਾਬਕਾ ਕ੍ਰਿਕੇਟਰ ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਦਾ ਇੱਕ ਡੀਪਫੇਕ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋਇਆ ਸੀ। ਇਸ ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੂੰ ‘ਸਕਾਈਵਰਡ ਐਵੀਏਟਰ ਕਵੈਸਟ’ ਦਾ ਪ੍ਰਚਾਰ ਕਰਦੇ ਹੋਏ ਦਿਖਾਇਆ ਗਿਆ ਹੈ। ਸਚਿਨ ਨੇ ਕਿਹਾ ਸੀ – ਇਹ ਵੀਡੀਓ ਫਰਜ਼ੀ ਹੈ ਅਤੇ ਧੋਖਾ ਦੇਣ ਲਈ ਇਸ ਨੂੰ ਬਣਾਇਆ ਗਿਆ ਹੈ। (Deepfake)</p>
<h3><strong><a title="Deepfake : ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਹੋਏ ਡੀਪਫੇਕ ਦਾ ਸ਼ਿਕਾਰ" href="http://10.0.0.122:1245/sachin-tendulkar-became-a-victim-of-deepfake/">Deepfake : ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਹੋਏ ਡੀਪਫੇਕ ਦਾ ਸ਼ਿਕਾਰ</a></strong></h3>
]]>
                    </content:encoded>
                
                                                            <category>ਦੇਸ਼</category>
                                            <category>Breaking News</category>
                                            <category>ਇੱਕ ਨਜ਼ਰ</category>
                                    

                <link>https://sachkahoonpunjabi.com/breaking-news/new-rules-will-be-implemented-against-deepfake-in-seven-days/article-40611</link>
                <guid>https://sachkahoonpunjabi.com/breaking-news/new-rules-will-be-implemented-against-deepfake-in-seven-days/article-40611</guid>
                <pubDate>Tue, 16 Jan 2024 17:52:09 +0530</pubDate>
                                    <enclosure
                        url="https://sachkahoonpunjabi.com/media/2024-01/deepfake.jpg"                         length="54865"                         type="image/jpeg"  />
                
                                    <dc:creator>
                        <![CDATA[Sach Kahoon Punjabi Desk]]>
                    </dc:creator>
                            </item>
            <item>
                <title>Deepfake : ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਹੋਏ ਡੀਪਫੇਕ ਦਾ ਸ਼ਿਕਾਰ</title>
                                    <description>
                        <![CDATA[ਮੁੰਬਈ। ਭਾਰਤ ਦੇ ਸਾਬਕਾ ਕ੍ਰਿਕਟਰ ਮਾਸਟਰ ਬਲਾਸਟਰ ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਵੀ ਡੀਪ ਫੇਕ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਗਏ ਹਨ। ਉਨ੍ਹਾਂ ਦੀ ਇਕ ਵੀਡੀਓ ਸੋਸ਼ਲ ਮੀਡੀਆ ‘ਤੇ ਖੂਬ ਵਾਇਰਲ ਹੋ ਰਹੀ ਹੈ, ਜਿਸ ‘ਚ ਉਹ ਗੇਮਿੰਗ ਐਪ ‘ਸਕਾਈਵਰਡ ਐਵੀਏਟਰ ਕਵੈਸਟ’ ਨੂੰ ਪ੍ਰਮੋਟ ਕਰਦੀ ਨਜ਼ਰ ਆ ਰਹੀ ਹੈ। Deepfake ਸਚਿਨ ਨੇ ਖੁਦ ਇਸ ਵੀਡੀਓ ਨੂੰ ਸੋਸ਼ਲ ਮੀਡੀਆ ‘ਤੇ ਪੋਸਟ […]
]]>
                    </description>
                
                                    <content:encoded>
                        <![CDATA[<a href="https://sachkahoonpunjabi.com/breaking-news/sachin-tendulkar-became-a-victim-of-deepfake/article-40583"><img src="https://sachkahoonpunjabi.com/media/400/2024-01/sachin-tendulkar.jpg" alt=""></a><br /><p style="text-align:justify;"><strong>ਮੁੰਬਈ।</strong> ਭਾਰਤ ਦੇ ਸਾਬਕਾ ਕ੍ਰਿਕਟਰ ਮਾਸਟਰ ਬਲਾਸਟਰ ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਵੀ ਡੀਪ ਫੇਕ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਗਏ ਹਨ। ਉਨ੍ਹਾਂ ਦੀ ਇਕ ਵੀਡੀਓ ਸੋਸ਼ਲ ਮੀਡੀਆ ‘ਤੇ ਖੂਬ ਵਾਇਰਲ ਹੋ ਰਹੀ ਹੈ, ਜਿਸ ‘ਚ ਉਹ ਗੇਮਿੰਗ ਐਪ ‘ਸਕਾਈਵਰਡ ਐਵੀਏਟਰ ਕਵੈਸਟ’ ਨੂੰ ਪ੍ਰਮੋਟ ਕਰਦੀ ਨਜ਼ਰ ਆ ਰਹੀ ਹੈ। Deepfake</p>
<p style="text-align:justify;">ਸਚਿਨ ਨੇ ਖੁਦ ਇਸ ਵੀਡੀਓ ਨੂੰ ਸੋਸ਼ਲ ਮੀਡੀਆ ‘ਤੇ ਪੋਸਟ ਕੀਤਾ ਅਤੇ ਲਿਖਿਆ ਕਿ ਇਹ ਵੀਡੀਓ ਫਰਜ਼ੀ ਹੈ ਅਤੇ ਤੁਹਾਨੂੰ ਧੋਖਾ ਦੇਣ ਲਈ ਬਣਾਈ ਗਈ ਹੈ। ਤਕਨਾਲੋਜੀ ਦੀ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਦੁਰਵਰਤੋਂ ਬਿਲਕੁਲ ਗਲਤ ਹੈ। ਤੁਹਾਨੂੰ ਸਭ ਨੂੰ ਬੇਨਤੀ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਕਿ ਜੇਕਰ ਤੁਸੀਂ ਅਜਿਹੇ ਵੀਡੀਓ ਜਾਂ ਐਪ ਜਾਂ ਇਸ਼ਤਿਹਾਰ ਦੇਖਦੇ ਹੋ ਤਾਂ ਤੁਰੰਤ ਉਨ੍ਹਾਂ ਦੀ ਰਿਪੋਰਟ ਕਰੋ। ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ਨੂੰ ਵੀ ਸਾਵਧਾਨ ਰਹਿਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਵਿਰੁੱਧ ਕੀਤੀਆਂ ਗਈਆਂ ਸ਼ਿਕਾਇਤਾਂ ‘ਤੇ ਜਲਦੀ ਤੋਂ ਜਲਦੀ ਕਾਰਵਾਈ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਇਸ ਸਬੰਧ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੀ ਭੂਮਿਕਾ ਬਹੁਤ ਮਹੱਤਵਪੂਰਨ ਹੈ ਤਾਂ ਜੋ ਗਲਤ ਜਾਣਕਾਰੀ ਅਤੇ ਖਬਰਾਂ ਨੂੰ ਰੋਕਿਆ ਜਾ ਸਕੇ ਅਤੇ ਡੀਪਫੇਕ ਦੀ ਦੁਰਵਰਤੋਂ ਨੂੰ ਖਤਮ ਕੀਤਾ ਜਾ ਸਕੇ। Deepfake</p>
<p>https://x.com/sachin_rt/status/1746794062961950824?s=20</p>
<h4 style="text-align:justify;">ਇਹ ਵੀ ਪੜ੍ਹੋ: <a title="Ram Mandir : ਅਮਿਤਾਭ ਬੱਚਨ ਨੇ ਸਥਾਪਨਾ ਤੋਂ ਪਹਿਲਾਂ ਅਯੁੱਧਿਆ ’ਚ ਕਿਉਂ ਖਰੀਦਿਆ 14.5 ਕਰੋੜ ਦਾ ਪਲਾਟ? ਜਾਣੋ ਕਾਰਨ" href="http://10.0.0.122:1245/why-did-amitabh-bachchan-buy-this-expensive-plot-in-ayodhya-before-the-establishment/">Ram Mandir : ਅਮਿਤਾਭ ਬੱਚਨ ਨੇ ਸਥਾਪਨਾ ਤੋਂ ਪਹਿਲਾਂ ਅਯੁੱਧਿਆ ’ਚ ਕਿਉਂ ਖਰੀਦਿਆ 14.5 ਕਰੋੜ ਦਾ ਪਲਾਟ? ਜਾਣੋ ਕਾਰਨ</a></h4>
<p style="text-align:justify;"> ਉਨ੍ਹਾਂ ਨੇ ਇਸ ਸੰਦੇਸ਼ ਨਾਲ ਭਾਰਤ ਸਰਕਾਰ, ਸੂਚਨਾ ਅਤੇ ਪ੍ਰਸਾਰਨ ਰਾਜ ਮੰਤਰੀ ਰਾਜੀਵ ਚੰਦਰਸ਼ੇਖਰ ਅਤੇ ਮਹਾਂਰਾਸ਼ਟਰ ਸਾਈਬਰ ਪੁਲਿਸ ਨੂੰ ਟੈਗ ਕੀਤਾ ਹੈ। ਇਸ ਫੇਕ ਵੀਡੀਓ ‘ਚ ਸਚਿਨ ਤੇਂਦੁਲਕਰ ਦੀ ਧੀ ਸਾਰਾ ਤੇਂਦੁਲਕਰ ਦਾ ਵੀ ਜਿਕਰ ਕੀਤਾ ਗਿਆ ਹੈ।</p>
]]>
                    </content:encoded>
                
                                                            <category>ਦੇਸ਼</category>
                                            <category>Breaking News</category>
                                            <category>ਖੇਡ ਮੈਦਾਨ</category>
                                            <category>ਇੱਕ ਨਜ਼ਰ</category>
                                    

                <link>https://sachkahoonpunjabi.com/breaking-news/sachin-tendulkar-became-a-victim-of-deepfake/article-40583</link>
                <guid>https://sachkahoonpunjabi.com/breaking-news/sachin-tendulkar-became-a-victim-of-deepfake/article-40583</guid>
                <pubDate>Mon, 15 Jan 2024 16:15:12 +0530</pubDate>
                                    <enclosure
                        url="https://sachkahoonpunjabi.com/media/2024-01/sachin-tendulkar.jpg"                         length="21764"                         type="image/jpeg"  />
                
                                    <dc:creator>
                        <![CDATA[Sach Kahoon Punjabi Desk]]>
                    </dc:creator>
                            </item>
            <item>
                <title>ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੇ ਦੌਰ ’ਚ ਡੀਪਫੇਕ ਇੱਕ ਵੱਡੀ ਚੁਣੌਤੀ</title>
                                    <description>
                        <![CDATA[Artificial Intelligence ਡੀਪਫੇਕ ਉਹ ਵੀਡੀਓ ਜਾਂ ਆਡੀਓ ਰਿਕਾਰਡਿੰਗ ਹੁੰਦੇ ਹਨ ਜੋ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (ਅਘ) ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਇਹ ਵਿਖਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਜਾਂਦੇ ਹਨ ਕਿ ਕੋਈ ਅਜਿਹਾ ਕੁਝ ਕਹਿ ਰਿਹਾ ਹੈ ਜਾਂ ਕਰ ਰਿਹਾ ਹੈ ਜੋ ਉਸ ਨੇ ਕਦੇ ਨਹੀਂ ਕੀਤਾ। ਇਹ ਦੂਰਗਾਮੀ ਪ੍ਰਭਾਵਾਂ ਦੇ ਨਾਲ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਤਕਨੀਕੀ ਖਤਰੇ ਵਜੋਂ ਉੱਭਰਿਆ ਹੈ। ਕਿਹਾ ਜਾਂਦਾ […]
]]>
                    </description>
                
                                    <content:encoded>
                        <![CDATA[<a href="https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B2%E0%A9%87%E0%A8%96/deepfake-is-a-big-challenge-in-the-era-of-artificial-intelligence/article-39660"><img src="https://sachkahoonpunjabi.com/media/400/2023-12/ai.jpg" alt=""></a><br /><h2><strong>Artificial Intelligence</strong></h2>
<p style="text-align:justify;">ਡੀਪਫੇਕ ਉਹ ਵੀਡੀਓ ਜਾਂ ਆਡੀਓ ਰਿਕਾਰਡਿੰਗ ਹੁੰਦੇ ਹਨ ਜੋ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (ਅਘ) ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਇਹ ਵਿਖਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਜਾਂਦੇ ਹਨ ਕਿ ਕੋਈ ਅਜਿਹਾ ਕੁਝ ਕਹਿ ਰਿਹਾ ਹੈ ਜਾਂ ਕਰ ਰਿਹਾ ਹੈ ਜੋ ਉਸ ਨੇ ਕਦੇ ਨਹੀਂ ਕੀਤਾ। ਇਹ ਦੂਰਗਾਮੀ ਪ੍ਰਭਾਵਾਂ ਦੇ ਨਾਲ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਤਕਨੀਕੀ ਖਤਰੇ ਵਜੋਂ ਉੱਭਰਿਆ ਹੈ। ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਕਿ ਸੂਚਨਾ ਤਕਨਾਲੋਜੀ ਦੇ ਇਸ ਯੁੱਗ ਵਿੱਚ ਡੇਟਾ ਦੀ ਮਹੱਤਤਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ ਅਤੇ ਡੇਟਾ ਤੋਂ ਬਿਨਾਂ ਕੋਈ ਵੀ ਕੰਮ ਕਰਨਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੋ ਗਿਆ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਵਧ ਰਹੀ ਹੈ, ਇਸ ਦੇ ਸ਼ੁੱਧੀਕਰਨ ਦੇ ਤਰੀਕੇ ਵੀ ਵਧ ਰਹੇ ਹਨ, ਉੱਥੇ ਹੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵੀ ਸਾਹਮਣੇ ਆਈ ਹੈ ਜੋ ਤੁਹਾਡੇ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਕਈ ਹੈਰਾਨੀਜਨਕ ਕੰਮ ਕਰ ਸਕਦੀ ਹੈ। (Artificial Intelligence)</p>
<p style="text-align:justify;">ਅਜਿਹੀ ਹੀ ਇੱਕ ਤਕਨੀਕ ਹੈ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ, ਜਿਸ ਨੇ ਤਕਨੀਕੀ ਦੁਨੀਆ ਨੂੰ ਹਮੇਸ਼ਾ ਲਈ ਬਦਲ ਦਿੱਤਾ ਹੈ। ਗੂਗਲ ਬਾਰਡ ਵਰਗੇ ਟੂਲ ਹੈਰਾਨੀਜਨਕ ਜਾਣਕਾਰੀ ਦਾ ਖਜ਼ਾਨਾ ਬਣ ਗਏ ਹਨ ਜੋ ਖੋਜ, ਸਿੱਖਿਆ, ਉਤਪਾਦਕਤਾ ਨੂੰ ਇੱਕ ਵੱਖਰੇ ਪੱਧਰ ’ਤੇ ਲੈ ਗਏ ਹਨ, ਜਦੋਂਕਿ ਨਿਊਰਲ ਨੈੱਟਵਰਕ, ਡੂੰਘੀ ਸਿਖਲਾਈ, ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਨੇ ਵਿਕਰੀ, ਮਾਰਕੀਟਿੰਗ, ਸੋਸ਼ਲ ਮੀਡੀਆ ਅਤੇ ਮਨੋਰੰਜਨ ਵਰਗੇ ਖੇਤਰਾਂ ਨੂੰ ਬਦਲ ਦਿੱਤਾ ਹੈ। ਡੀਪਫੇਕ ਦੁਆਰਾ ਦਰਸਾਈਆਂ ਚੁਣੌਤੀਆਂ ਸਭ ਤੋਂ ਪਹਿਲਾਂ ਵਿਸ਼ਵਾਸ ਅਤੇ ਵੱਕਾਰ ਦਾ ਖਾਤਮਾ ਹੈ। ਡੀਪਫੇਕ ਦੀ ਵਰਤੋਂ ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾਉਣ, ਸਾਖ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਤੇ ਸਮਾਜਿਕ ਅਸ਼ਾਂਤੀ ਨੂੰ ਭੜਕਾਉਣ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਇੱਕ ਵਾਰ ਡੀਪਫੇਕ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋ ਜਾਣ ਤੋਂ ਬਾਅਦ, ਨੁਕਸਾਨ ਨੂੰ ਕਾਬੂ ਵਿੱਚ ਰੱਖਣਾ ਮੁਸ਼ਕਿਲ ਹੋ ਸਕਦਾ ਹੈ।</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="ਸਿੱਖਿਆ ਢਾਂਚੇ ’ਚ ਸੁਧਾਰ" href="http://10.0.0.122:1245/improvement-in-education-structure/">ਸਿੱਖਿਆ ਢਾਂਚੇ ’ਚ ਸੁਧਾਰ</a></strong></h4>
<p style="text-align:justify;">ਕਿਉਂਕਿ ਲੋਕ ਅਸਲ ਅਤੇ ਹੇਰਾਫੇਰੀ ਵਾਲੀ ਸਮੱਗਰੀ ਵਿੱਚ ਫਰਕ ਕਰਨ ਦੇ ਯੋਗ ਨਹੀਂ ਹੋ ਸਕਦੇ ਹਨ। ਵਿਅਕਤੀਆਂ ਅਤੇ ਸਮਾਜ ਲਈ ਖਤਰਾ ਹੁਣ ਸਿਰ ’ਤੇ ਆ ਗਿਆ ਹੈ। ਡੀਪਫੇਕ ਦੀ ਵਰਤੋਂ ਸਾਈਬਰ ਧੱਕੇਸ਼ਾਹੀ, ਬਲੈਕਮੇਲ ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਚੋਣਾਂ ਵਿੱਚ ਦਖ਼ਲ ਦੇਣ ਲਈ ਵੀ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਇਸ ਦੀ ਦੁਰਵਰਤੋਂ ਨਾਲ ਵਿਅਕਤੀਆਂ ਅਤੇ ਸਮਾਜ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਦੀ ਸੰਭਾਵਨਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ। ਲੋਕਾਂ ਦਾ ਪਤਾ ਲਾਉਣ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਜਵਾਬਦੇਹ ਬਣਾਉਣ ਵਿੱਚ ਮੁਸ਼ਕਲ ਪਹਿਲਾਂ ਨਾਲੋਂ ਵਧ ਗਈ ਹੈ। ਡੀਪਫੇਕ ਦੀ ਸੂਝ-ਬੂਝ ਲਗਾਤਾਰ ਵਿਕਸਿਤ ਹੋ ਰਹੀ ਹੈ, ਜਿਸ ਨਾਲ ਉਨ੍ਹਾਂ ਨੂੰ ਖੋਜਣਾ ਹੋਰ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ। (Artificial Intelligence)</p>
<p style="text-align:justify;">ਇਹ ਕਾਨੂੰਨ ਲਾਗੂ ਕਰਨ ਤੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ਲਈ ਇੱਕ ਚੁਣੌਤੀ ਹੈ। ਕਾਨੂੰਨੀ ਅਤੇ ਨੈਤਿਕ ਵਿਚਾਰ ਕਮਜ਼ੋਰ ਹੁੰਦੇ ਜਾਪਦੇ ਹਨ। ਡੀਪਫੇਕ ਦੇ ਉਭਾਰ ਨੇ ਗੋਪਨੀਯਤਾ, ਪ੍ਰਗਟਾਵੇ ਦੀ ਆਜ਼ਾਦੀ ਅਤੇ ਨਕਲੀ ਬੁੱਧੀ (ਅਘ) ਦੀਆਂ ਸੀਮਾਵਾਂ ਦੇ ਸੰਬੰਧ ਵਿੱਚ ਗੁੰਝਲਦਾਰ ਕਾਨੂੰਨੀ ਅਤੇ ਨੈਤਿਕ ਸਵਾਲ ਖੜ੍ਹੇ ਕੀਤੇ ਹਨ। ਡੀਪਫੇਕ ਦੀ ਹਰ ਖੇਤਰ ਵਿੱਚ ਦੁਰਵਰਤੋਂ ਹੋ ਰਹੀ ਹੈ, ਡੀਪਫੇਕ ਲੋਕਤੰਤਰ ਲਈ ਖ਼ਤਰਾ ਹਨ। ਡੀਪਫੇਕ ਲੋਕਤੰਤਰੀ ਭਾਸ਼ਣ ਨੂੰ ਬਦਲ ਕੇ ਅਤੇ ਮਹੱਤਵਪੂਰਨ ਸੰਸਥਾਵਾਂ ਪ੍ਰਤੀ ਜਨਤਕ ਅਵਿਸ਼ਵਾਸ ਫੈਲਾ ਕੇ ਲੋਕਤੰਤਰ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਨ ਦਾ ਕੰਮ ਕਰ ਸਕਦੇ ਹਨ। ਡੀਪਫੇਕ ਰਾਜਨੀਤੀ ਅਤੇ ਲੋਕਤੰਤਰ ਲਈ ਸਭ ਤੋਂ ਵੱਡਾ ਖ਼ਤਰਾ ਬਣ ਸਕਦੇ ਹਨ, ਕਿਉਂਕਿ ਇਸ ਵਿਚ ਕਿਸੇ ਵੀ ਨੇਤਾ ਦੇ ਝੂਠੇ ਜਾਂ ਭੜਕਾਊ ਬਿਆਨ ਦੀ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋ ਸਕਦੀ ਹੈ। (Artificial Intelligence)</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="ਜ਼ਿਲ੍ਹੇ ’ਚੋਂ 6 ਹੋਰ ਨਵੇਂ ਡੇਂਗੂ ਮਰੀਜ਼ ਮਿਲੇ, ਕੁੱਲ ਗਿਣਤੀ ਹੋਈ 1064 " href="http://10.0.0.122:1245/6-more-new-dengue-patients-were-found-in-the-district/">ਜ਼ਿਲ੍ਹੇ ’ਚੋਂ 6 ਹੋਰ ਨਵੇਂ ਡੇਂਗੂ ਮਰੀਜ਼ ਮਿਲੇ, ਕੁੱਲ ਗਿਣਤੀ ਹੋਈ 1064 </a></strong></h4>
<p style="text-align:justify;">ਜਿਸ ਨਾਲ ਦੇਸ਼ ਵਿਚ ਦੰਗੇ ਹੋ ਸਕਦੇ ਹਨ। ਜਾਤੀ ਨਫਰਤ, ਚੋਣ ਨਤੀਜਿਆਂ ਦੀ ਅਸਵੀਕਾਰਤਾ ਜਾਂ ਹੋਰ ਕਿਸਮ ਦੀਆਂ ਗਲਤ ਜਾਣਕਾਰੀਆਂ ਫੈਲਾਉਣ ਲਈ ਚੋਣਾਂ ਵਿੱਚ ਡੀਪਫੇਕ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਜੋ ਲੋਕਤੰਤਰੀ ਪ੍ਰਣਾਲੀ ਲਈ ਇੱਕ ਵੱਡੀ ਚੁਣੌਤੀ ਬਣ ਸਕਦੀ ਹੈ। ਇਸ ਸਾਲ ਦੀ ਸਟੇਟ ਆਫ ਡੀਪਫੇਕਸ ਰਿਪੋਰਟ ਅਨੁਸਾਰ, ਭਾਰਤ ਡੀਪਫੇਕ ਲਈ ਛੇਵਾਂ ਸਭ ਤੋਂ ਕਮਜ਼ੋਰ ਦੇਸ਼ ਹੈ। ਡੀਪਫੇਕ ਵੋਟਰ ਦਾ ਮਨ ਬਦਲ ਸਕਦਾ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਚੋਣਾਂ ਤੋਂ ਦੋ ਦਿਨ ਪਹਿਲਾਂ ਤੱਕ ਕਿਸੇ ਪਾਰਟੀ ਜਾਂ ਉਮੀਦਵਾਰ ਦੇ ਹੱਕ ਵਿੱਚ ਜਾਂ ਵਿਰੁੱਧ ਵੋਟ ਪਾਉਣ ਦਾ ਮਨ ਬਣਾ ਲਿਆ ਹੈ ਤੇ ਇਸ ਦੌਰਾਨ ਉਸ ਪਾਰਟੀ ਦੇ ਕਿਸੇ ਵੱਡੇ ਆਗੂ ਦੀ ਇਤਰਾਜ਼ਯੋਗ ਫੋਟੋ ਹੈ ਜਾਂ ਕੋਈ ਵੀ ਉਮੀਦਵਾਰ ਜੇਕਰ ਕੋਈ ਸੁਨੇਹਾ, ਵੀਡੀਓ ਜਾਂ ਆਡੀਓ ਸੋਸ਼ਲ ਮੀਡੀਆ ’ਤੇ ਵਾਇਰਲ ਹੋ ਜਾਂਦਾ ਹੈ। (Artificial Intelligence)</p>
<p style="text-align:justify;">ਤਾਂ ਵੋਟਰ ਉਸ ਪਾਰਟੀ ਨੂੰ ਵੋਟ ਪਾਉਣ ਦਾ ਆਪਣਾ ਫੈਸਲਾ ਬਦਲ ਸਕਦਾ ਹੈ। ਦੱਸ ਦਈਏ ਕਿ ਬਿ੍ਰਟੇਨ ਦੀਆਂ ਪਿਛਲੀਆਂ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਅਹੁਦੇ ਦੀਆਂ ਚੋਣਾਂ ’ਚ ਲੇਬਰ ਪਾਰਟੀ ਤੇ ਕੰਜਰਵੇਟਿਵ ਪਾਰਟੀ ਦੇ ਉਮੀਦਵਾਰਾਂ ਦੀ ਇੱਕ ਡੀਪਫੇਕ ਵੀਡੀਓ ਸਾਹਮਣੇ ਆਈ ਸੀ, ਜਿਸ ਵਿਚ ਉਹ ਇੱਕ-ਦੂਜੇ ਦਾ ਸਮੱਰਥਨ ਕਰਦੇ ਨਜ਼ਰ ਆ ਰਹੇ ਸਨ, ਇਸੇ ਤਰ੍ਹਾਂ ਭਾਰਤ ’ਚ ਵੀ 2019 ਦੀਆਂ ਲੋਕ ਸਭਾ ਚੋਣਾਂ ’ਚ ਵੀ ਕੁਝ ਸਿਆਸਤਦਾਨਾਂ ਦੀਆਂ ਫਰਜੀ ਵੀਡੀਓਜ਼ ਸਾਹਮਣੇ ਆਈਆਂ ਸਨ। ਸੋਸ਼ਲ ਮੀਡੀਆ ’ਤੇ ਫਰਜੀ ਵੀਡੀਓਜ਼ ਵਾਇਰਲ ਹੋਈਆਂ ਸਨ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਬਾਅਦ ’ਚ ਹਟਾ ਦਿੱਤਾ ਗਿਆ ਸੀ। ਭਾਰਤ ਵਿੱਚ ਡੀਪਫੇਕ ਦੇ ਪੀੜਤਾਂ ਲਈ ਕਾਨੂੰਨੀ ਉਪਚਾਰ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮ ਸਾਈਬਰ ਅਪਰਾਧ ਨਾਲ ਸਬੰਧਤ ਸ਼ਿਕਾਇਤਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਤੇ 36 ਘੰਟਿਆਂ ਦੇ ਅੰਦਰ ਡੀਪਫੇਕ ਸਮੱਗਰੀ ਨੂੰ ਹਟਾਉਣ ਲਈ ਕਾਨੂੰਨੀ ਤੌਰ ’ਤੇ ਪਾਬੰਦ ਹਨ। (Artificial Intelligence)</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="IND Vs AUS : ਭਾਰਤ ਨੇ ਆਸਟ੍ਰੇਲੀਆ ਨੂੰ ਦਿੱਤਾ ਚੁਣੌਤੀਪੂਰਨ ਟੀਚਾ" href="http://10.0.0.122:1245/ind-vs-aus-india-gave-australia-a-challenging-target/">IND Vs AUS : ਭਾਰਤ ਨੇ ਆਸਟ੍ਰੇਲੀਆ ਨੂੰ ਦਿੱਤਾ ਚੁਣੌਤੀਪੂਰਨ ਟੀਚਾ</a></strong></h4>
<p style="text-align:justify;">ਸਾਈਬਰ ਅਪਰਾਧ ਦੀ ਰਿਪੋਰਟ ਕਰਨ ਲਈ, ਪੀੜਤ ਨੈਸ਼ਨਲ ਸਾਈਬਰ ਕ੍ਰਾਈਮ ਹੈਲਪਲਾਈਨ (1930) ’ਤੇ ਸ਼ਿਕਾਇਤ ਦਰਜ ਕਰਵਾ ਸਕਦੇ ਹਨ ਤੇ ਸਾਈਬਰ ਵਕੀਲ ਤੋਂ ਸਹਾਇਤਾ ਲੈ ਸਕਦੇ ਹਨ। ਸੂਚਨਾ ਤਕਨਾਲੋਜੀ ਐਕਟ, 2000 ਦੀ ਧਾਰਾ 66 ਨਕਲੀ ਅਤੇ ਝੂਠੀ ਜਾਣਕਾਰੀ ਦੇ ਪ੍ਰਸਾਰ ਸਮੇਤ ਸਾਈਬਰ ਅਪਰਾਧ ਅਪਰਾਧਾਂ ਨਾਲ ਸਬੰਧਿਤ ਹੈ। 1957 ਦੇ ਕਾਪੀਰਾਈਟ ਐਕਟ ਦੇ ਤਹਿਤ, ਡੀਪਫੇਕ ਕਾਪੀਰਾਈਟ ਕਾਨੂੰਨਾਂ ਦੀ ਉਲੰਘਣਾ ਕਰ ਸਕਦੇ ਹਨ ਜੇਕਰ ਉਨ੍ਹਾਂ ਵਿੱਚ ਕਾਪੀਰਾਈਟ ਸਮੱਗਰੀ ਦੀ ਅਣਅਧਿਕਾਰਤ ਵਰਤੋਂ ਸ਼ਾਮਲ ਹੁੰਦੀ ਹੈ। ਡੀਪਫੇਕ ਦੀ ਪ੍ਰਕਿਰਤੀ ਦੇ ਆਧਾਰ ’ਤੇ ਮਾਣਹਾਨੀ (ਧਾਰਾ 499) ਤੇ ਅਪਰਾਧਿਕ ਧਮਕੀ (ਧਾਰਾ 506) ਵਰਗੀਆਂ ਭਾਰਤੀ ਦੰਡ ਵਿਧਾਨ (ਆਈਪੀਸੀ) ਦੀਆਂ ਵਿਵਸਥਾਵਾਂ ਲਾਗੂ ਕੀਤੀਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ। (Artificial Intelligence)</p>
<p style="text-align:justify;">ਤਕਨੀਕੀ ਹੱਲ ਉਨ੍ਹਾਂ ਉਪਾਵਾਂ ਵਿੱਚ ਸਰਵਉੱਚ ਹਨ ਜੋ ਡੀਪਫੇਕ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਕੀਤੇ ਜਾ ਸਕਦੇ ਹਨ। ਖੋਜਕਰਤਾ ਡੀਪਫੇਕ ਦਾ ਪਤਾ ਲਾਉਣ ਤੇ ਪ੍ਰਮਾਣਿਤ ਕਰਨ ਲਈ ਸੰਚਾਲਿਤ ਟੂਲ ਵਿਕਸਿਤ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਟੂਲ ਡੀਪਫੇਕ ਸਮੱਗਰੀ ਵਿੱਚ ਸੂਖਮ ਖਾਮੀਆਂ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਦੇ ਹਨ, ਜਿਵੇਂ ਕਿ ਚਿਹਰੇ ਦੇ ਹਾਵ-ਭਾਵ ਜਾਂ ਅੱਖਾਂ ਦੀਆਂ ਹਰਕਤਾਂ ਵਿੱਚ ਅਸੰਗਤਤਾਵਾਂ। ਸਰਕਾਰਾਂ ਤੇ ਅੰਤਰਰਾਸ਼ਟਰੀ ਸੰਸਥਾਵਾਂ ਡੀਪਫੇਕ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਕਾਨੂੰਨੀ ਤੇ ਰੈਗੂਲੇਟਰੀ ਢਾਂਚੇ ਦੀ ਪੜਚੋਲ ਕਰ ਰਹੀਆਂ ਹਨ। ਇਸ ਵਿੱਚ ਸਾਈਬਰ ਕ੍ਰਾਈਮ ਦੇ ਇੱਕ ਰੂਪ ਵਜੋਂ ਡੀਪਫੇਕਸ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਨਾ, ਰਿਪੋਰਟਿੰਗ ਵਿਧੀ ਸਥਾਪਿਤ ਕਰਨਾ ਅਤੇ ਉਤਪਾਦਕਾਂ ਅਤੇ ਸਪਲਾਇਰਾਂ ਨੂੰ ਜਵਾਬਦੇਹ ਰੱਖਣਾ ਸ਼ਾਮਿਲ ਹੈ।</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="IND Vs AUS : ਆਸਟ੍ਰੇਲੀਆ ਨੇ ਜਿੱਤਿਆ ਟਾਸ, ਭਾਰਤ ਕਰੇਗਾ ਪਹਿਲਾਂ ਬੱਲੇਬਾਜ਼ੀ" href="http://10.0.0.122:1245/ind-vs-aus-australia-won-the-toss-india-will-bat-first/">IND Vs AUS : ਆਸਟ੍ਰੇਲੀਆ ਨੇ ਜਿੱਤਿਆ ਟਾਸ, ਭਾਰਤ ਕਰੇਗਾ ਪਹਿਲਾਂ ਬੱਲੇਬਾਜ਼ੀ</a></strong></h4>
<p style="text-align:justify;">ਜਨਤਕ ਜਾਗਰੂਕਤਾ ਅਤੇ ਸਿੱਖਿਆ ਦੁਆਰਾ ਉਨ੍ਹਾਂ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਘਟਾਉਣ ਲਈ ਲੋਕਾਂ ਨੂੰ ਡੀਪਫੇਕ ਬਾਰੇ ਜਾਗਰੂਕ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਇਸ ਵਿੱਚ ਲੋਕਾਂ ਨੂੰ ਡੀਪਫੇਕ ਦੀ ਪਛਾਣ ਕਰਨਾ, ਹੇਰਾਫੇਰੀ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਪਛਾਣਨਾ ਅਤੇ ਸਮੱਗਰੀ ਨੂੰ ਆਨਲਾਈਨ ਸਾਂਝਾ ਕਰਨ ਬਾਰੇ ਸਾਵਧਾਨ ਰਹਿਣਾ ਸ਼ਾਮਲ ਹੈ। ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ਤੇ ਟੈਕਨਾਲੋਜੀ ਕੰਪਨੀਆਂ ਦੀ ਡੂੰਘਾਈ ਨਾਲ ਲੜਨ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਹੈ। ਇਸ ਵਿੱਚ ਖੋਜ ਤਕਨੀਕਾਂ ਵਿੱਚ ਨਿਵੇਸ਼ ਕਰਨਾ, ਸਪੱਸ਼ਟ ਨੀਤੀਆਂ ਨੂੰ ਲਾਗੂ ਕਰਨਾ ਤੇ ਕਾਨੂੰਨ ਲਾਗੂ ਕਰਨ ਵਾਲੇ ਨਾਲ ਕੰਮ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ। ਡੀਪ ਫੇਕ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਏਆਈ-ਅਧਾਰਿਤ ਹੱਲ ਵਿੱਚ ਚਿਹਰੇ ਦੀਆਂ ਹਰਕਤਾਂ, ਚਮੜੀ ਦੀ ਬਣਤਰ ਅਤੇ ਆਵਾਜ਼ ਦੇ ਪੈਟਰਨਾਂ ਵਿੱਚ ਸੂਖਮ ਵਿਗਾੜਾਂ ਦੇ ਅਧਾਰ ’ਤੇ ਡੀਪਫੇਕ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਮਾਡਲਾਂ ਦੀ ਸਿਖਲਾਈ ਸ਼ਾਮਲ ਹੋ ਸਕਦੀ ਹੈ।</p>
<p style="text-align:justify;">ਸੋਰਸ ਕੋਡ ਵਾਟਰਮਾਰਕਿੰਗ ਵਿਲੱਖਣ ਵਾਟਰਮਾਰਕਸ ਡਿਜ਼ੀਟਲ ਸਮੱਗਰੀ ਦੇ ਸੋਰਸ ਕੋਡ ਵਿੱਚ ਸ਼ਾਮਲ ਡੀਪਫੇਕ ਦੇ ਮੂਲ ਦਾ ਪਤਾ ਲਗਾਉਣ ਅਤੇ ਦੋਸੀਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੇ ਹਨ। ਸੰਚਾਲਿਤ ਤੱਥ-ਜਾਂਚ ਟੂਲ ਉਪਭੋਗਤਾ ਦੁਆਰਾ ਤਿਆਰ ਸਮੱਗਰੀ ਦੀ ਪ੍ਰਮਾਣਿਕਤਾ ਦੀ ਪੁਸਟੀ ਕਰਨ ਵਿੱਚ ਸੋਸਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ਦੀ ਸਹਾਇਤਾ ਕਰ ਸਕਦੇ ਹਨ। ਮੀਡੀਆ ਪ੍ਰਮਾਣਿਕਤਾ ਮਾਨਕ ਓਪਨ ਤਕਨੀਕੀ ਮਿਆਰ ਜਿਵੇਂ ਕਿ ਸਮਗਰੀ ਪ੍ਰੋਵੇਨੈਂਸ ਅਤੇ ਪ੍ਰਮਾਣਿਕਤਾ ਲਈ ਗੱਠਜੋੜ ਡਿਜ਼ੀਟਲ ਸਮੱਗਰੀ ਦੀ ਪ੍ਰਮਾਣਿਕਤਾ ਨੂੰ ਸਥਾਪਤ ਕਰਨ ਵਿੱਚ ਮੱਦਦ ਕਰ ਸਕਦੇ ਹਨ।</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="ਸੋਨਾ ਚੋਰਾਂ ਤੋਂ ਮਿਲਿਆ ਸੋਨਾ ਹੀ ਸੋਨਾ, ਵੇਖ ਕੇ ਹੋਵੇਗੀ ਹੈਰਾਨ" href="http://10.0.0.122:1245/gold-found-from-thieves-is-only-gold/">ਸੋਨਾ ਚੋਰਾਂ ਤੋਂ ਮਿਲਿਆ ਸੋਨਾ ਹੀ ਸੋਨਾ, ਵੇਖ ਕੇ ਹੋਵੇਗੀ ਹੈਰਾਨ</a></strong></h4>
<p style="text-align:justify;">ਭਾਰਤ ਨੂੰ ਭਾਰਤੀ ਵਿਚਾਰ ਤੇ ਅਧਿਆਤਮਿਕਤਾ ਦੇ ਵਿਸ਼ਵ ਦਿ੍ਰਸ਼ਟੀਕੋਣ ਦਾ ਪ੍ਰਚਾਰ ਕਰਨ ਲਈ ਆਪਣੇ ਖੁਦ ਨੂੰ ਵਿਕਿਸਤ ਕਰਨ ਅਤੇ ਸਿਖਲਾਈ ਦੇਣ ਦੀ ਲੋੜ ਹੈ। ਏਆਈ ਪੱਖਪਾਤ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਦਾ ਇਹ ਸ਼ਾਇਦ ਇੱਕੋ-ਇੱਕ ਤਰੀਕਾ ਹੈ। ਜੇਕਰ ਭਾਰਤ-ਵਿਰੋਧੀ ਤਾਕਤਾਂ ਅਸਲ ਵਿੱਚ ਆਪਣੇ ਪੱਖਪਾਤ ਨੂੰ ਫੈਲਾਉਣ ਲਈ ਦੀ ਸਰਗਰਮੀ ਨਾਲ ਵਰਤੋਂ ਕਰ ਰਹੀਆਂ ਹਨ, ਤਾਂ ਸਾਨੂੰ ਦਾ ਆਪਣਾ ਸੰਸਕਰਣ ਬਣਾਉਣ ਦੀ ਲੋੜ ਹੈ ਜੋ ਭਾਰਤ-ਪੱਖੀ ਹੋਵੇ। ਕਈ ਹਿੱਤ ਸਮੂਹਾਂ ਅਤੇ ਹਿੱਸੇਦਾਰਾਂ ਦੁਆਰਾ ਵਧਦੀ ਵਿਚੋਲਗੀ ਵਾਲੀ ਦੁਨੀਆ ਵਿਚ, ਗਿਆਨ ਹੁਣ ਨਿਰਪੱਖ ਨਹੀਂ ਰਹਿ ਸਕਦਾ ਹੈ।</p>
<p style="text-align:justify;">ਸਾਨੂੰ ਵੱਡੀਆਂ ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਲਈ ਅਤੇ ਵ੍ਹਾਈਟ-ਕਾਲਰ ਵਰਕਫੋਰਸ ਦੇ ਪੈਸਿਵ ਖਪਤਕਾਰਾਂ ਵਜੋਂ ਸਾਡੀ ਭੂਮਿਕਾ ਤੋਂ ਪਰੇ ਸੋਚਣ ਦੀ ਲੋੜ ਹੈ, ਅਤੇ ਸਦਾ-ਵਿਕਸਿਤ ਭਾਸਣ ਵਿੱਚ ਸਰਗਰਮ ਖਿਡਾਰੀ ਬਣਨ ਦੀ ਲੋੜ ਹੈ। ਡੀਪਫੇਕ ਸਾਡੇ ਡਿਜ਼ੀਟਲ ਸਮਾਜ ਲਈ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਚੁਣੌਤੀ ਪੇਸ਼ ਕਰਦੇ ਹਨ, ਹਾਲਾਂਕਿ ਉਹ ਨਵੀਨਤਾ ਅਤੇ ਸਹਿਯੋਗ ਲਈ ਇੱਕ ਮੌਕਾ ਵੀ ਪੇਸ਼ ਕਰਦੇ ਹਨ। ਤਕਨੀਕੀ ਤਰੱਕੀ, ਕਾਨੂੰਨੀ ਢਾਂਚੇ ਅਤੇ ਜਨਤਕ ਜਾਗਰੂਕਤਾ ਨੂੰ ਜੋੜ ਕੇ, ਅਸੀਂ ਅਜਿਹੇ ਭਵਿੱਖ ਲਈ ਕੰਮ ਕਰ ਸਕਦੇ ਹਾਂ ਜਿੱਥੇ ਡੀਪਫੇਕ ਘੱਟ ਨੁਕਸਾਨਦੇਹ ਅਤੇ ਜ਼ਿਆਦਾ ਜਵਾਬਦੇਹ ਹੋਣ। ਸਿੱਟੇ ਵਜੋਂ, ਇਸ ਉੱਭਰ ਰਹੇ ਖਤਰੇ ਦੇ ਤਕਨੀਕੀ, ਕਾਨੂੰਨੀ ਤੇ ਨੈਤਿਕ ਪਹਿਲੂਆਂ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਨ ਲਈ ਇੱਕ ਵਿਆਪਕ ਪਹੁੰਚ ਵਿਕਸਿਤ ਕਰਨ ਦੀ ਲੋੜ ਹੈ।</p>
]]>
                    </content:encoded>
                
                                                            <category>ਦੇਸ਼</category>
                                            <category>Breaking News</category>
                                            <category>ਲੇਖ</category>
                                            <category>ਇੱਕ ਨਜ਼ਰ</category>
                                            <category>ਵਿਚਾਰ</category>
                                    

                <link>https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B2%E0%A9%87%E0%A8%96/deepfake-is-a-big-challenge-in-the-era-of-artificial-intelligence/article-39660</link>
                <guid>https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B2%E0%A9%87%E0%A8%96/deepfake-is-a-big-challenge-in-the-era-of-artificial-intelligence/article-39660</guid>
                <pubDate>Sat, 02 Dec 2023 10:58:30 +0530</pubDate>
                                    <enclosure
                        url="https://sachkahoonpunjabi.com/media/2023-12/ai.jpg"                         length="44747"                         type="image/jpeg"  />
                
                                    <dc:creator>
                        <![CDATA[Sach Kahoon Punjabi Desk]]>
                    </dc:creator>
                            </item>
            <item>
                <title>ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ’ਤੇ ਕੰਟਰੋਲ ਲਈ ਸਖ਼ਤੀ ਜ਼ਰੂਰੀ</title>
                                    <description>
                        <![CDATA[ਆਰਟੀਫ਼ਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜਾਂ ਏਆਈ | Deepfake ਡੀਪਫੇਕ ਨਿੱਜੀ ਜੀਵਨ ਤੋਂ ਅੱਗੇ ਵਧ ਕੇ ਹੁਣ ਸਿਆਸੀ ਅਤੇ ਸੰਸਾਰਕ ਸੰਦਰਭਾਂ ਲਈ ਇੱਕ ਗੰਭੀਰ ਖ਼ਤਰਾ ਬਣਦਾ ਜਾ ਰਿਹਾ ਹੈ 21ਵੀਂ ਸਦੀ ’ਚ ਬਨਾਉਟੀ ਬੌਧਿਕਤਾ (ਆਰਟੀਫ਼ਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜਾਂ ਏਆਈ) ਤਕਨੀਕ ਦੇ ਆਗਮਨ ਨੇ ਜੇਕਰ ਸਹੂਲਤਾਂ ਦੇ ਨਵੇਂ ਰਸਤੇ ਖੋਲ੍ਹੇ ਹਨ ਤਾਂ ਦੁਨੀਆ ਭਰ ’ਚ ਚਿੰਤਾਵਾਂ ਵੀ ਵਧਾ ਦਿੱਤੀਆਂ ਹਨ […]
]]>
                    </description>
                
                                    <content:encoded>
                        <![CDATA[<a href="https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B2%E0%A9%87%E0%A8%96/strictness-is-necessary-to-control-misuse-of-technology/article-39496"><img src="https://sachkahoonpunjabi.com/media/400/2023-11/ai1.jpg" alt=""></a><br /><h2>ਆਰਟੀਫ਼ਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜਾਂ ਏਆਈ | Deepfake</h2>
<p style="text-align:justify;">ਡੀਪਫੇਕ ਨਿੱਜੀ ਜੀਵਨ ਤੋਂ ਅੱਗੇ ਵਧ ਕੇ ਹੁਣ ਸਿਆਸੀ ਅਤੇ ਸੰਸਾਰਕ ਸੰਦਰਭਾਂ ਲਈ ਇੱਕ ਗੰਭੀਰ ਖ਼ਤਰਾ ਬਣਦਾ ਜਾ ਰਿਹਾ ਹੈ 21ਵੀਂ ਸਦੀ ’ਚ ਬਨਾਉਟੀ ਬੌਧਿਕਤਾ (ਆਰਟੀਫ਼ਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜਾਂ ਏਆਈ) ਤਕਨੀਕ ਦੇ ਆਗਮਨ ਨੇ ਜੇਕਰ ਸਹੂਲਤਾਂ ਦੇ ਨਵੇਂ ਰਸਤੇ ਖੋਲ੍ਹੇ ਹਨ ਤਾਂ ਦੁਨੀਆ ਭਰ ’ਚ ਚਿੰਤਾਵਾਂ ਵੀ ਵਧਾ ਦਿੱਤੀਆਂ ਹਨ ਇਸ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਵੱਡੇ ਪੈਮਾਨੇ ’ਤੇ ਸ਼ੁਰੂ ਹੋ ਗਈ ਹੈ, ਏਆਈ ਜ਼ਰੀਏ ਡੀਪਫੇਕ ਵੀਡੀਓ ਬਣਾ ਕੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ’ਤੇ ਵਾਇਰਲ ਕੀਤੀਆਂ ਜਾ ਰਹੀਆਂ ਹਨ ਗਲਤ ਸੂਚਨਾਵਾਂ, ਆਡੀਓ-ਵੀਡੀਓ ਅਤੇ ਤਸਵੀਰਾਂ ਫੈਲਾਉਣ ਵਾਲਿਆਂ ਦੇ ਹੱਥਾਂ ’ਚ ਏਆਈ ਨੇ ਖਤਰਨਾਕ ਹਥਿਆਰ ਫੜ੍ਹਾ ਦਿੱਤਾ ਹੈ, ਜੋ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਅਤੇ ਸਿਆਸੀ ਮੁੱਦਿਆਂ ਦੇ ਨਾਲ ਨਿੱਜੀ ਛਵ੍ਹੀ ਨੂੰ ਧੁੰਦਲਾ ਕਰਨ ਦਾ ਇਹ ਹਥਿਆਰ ਕਈ ਚਿਤਾਵਾਂ ਨੂੰ ਵਧਾ ਰਿਹਾ ਹੈ ਅਤੇ ਵੱਡੇ ਸੰਕਟ ਦਾ ਸਬੱਬ ਬਣਦਾ ਜਾ ਰਿਹਾ ਹੈ।</p>
<p style="text-align:justify;">ਡੀਪਫੇਕ ਨੇ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਮੋਦੀ ਨੂੰ ਵੀ ਨਹੀਂ ਬਖਸ਼ਿਆ ਹੈ, ਉਨ੍ਹਾਂ ਨੂੰ ਵੀ ਪ੍ਰੇਸ਼ਾਨ ਕਰ ਦਿੱਤਾ ਹੈ ਉਨ੍ਹਾਂ ਦੀ ਇੱਕ ਵੀਡੀਓ ਪਿਛਲੇ ਦਿਨੀਂ ਯੂ-ਟਿਊਬ ਸਮੇਤ ਸਾਰੇ ਸੋਸ਼ਲ਼ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ’ਤੇ ਖੂਬ ਚਰਚਿਤ ਹੋਈ ਹੈ, ਇਸ ’ਚ ਉਨ੍ਹਾਂ ਨੂੰ ਗਰਬਾ ਕਰਦੇ ਦਿਖਾਇਆ ਗਿਆ ਹੈ ਇਹ ਪੂਰੀ ਵੀਡੀਓ ਡੀਪਫੇਕ ਨਾਂਅ ਦੀ ਆਰਟੀਫ਼ਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਨਾਲ ਤਿਆਰ ਕੀਤੀ ਗਈ ਹੈ ਇਸ ਤਰ੍ਹਾਂ ਦੇਸ਼ ਅਤੇ ਵਿਦੇਸ਼ ਦੀਆਂ ਕਈ ਹਸਤੀਆਂ ਦੇ ਕਈ ਅਸ਼ਲੀਲ ਅਤੇ ਸਿਆਸੀ ਡੀਪਫੇਕ ਵਿਆਪਕ ਪੱਧਰ ’ਤੇ ਪ੍ਰਸਾਰਿਤ ਹੋ ਰਹੇ ਹਨ ਡੀਪਫੇਕ ਇੱਕ ਅਜਿਹੀ ਤਕਨੀਕ ਹੈ ਜਿਸ ’ਚ ਤੁਸੀਂ ਬਨਾਉਟੀ ਬੌਧਿਕਤਾ ਦੀ ਮੱਦਦ ਅਤੇ ਤਕਨੀਕ ਨਾਲ ਵੀਡੀਓ, ਤਸਵੀਰਾਂ ਤੇ ਆਡੀਓ ’ਚ ਹੇਰਫੇਰ ਕਰ ਸਕਦੇ ਹੋ ਇਸ ਤਕਨੀਕ ਦੀ ਮੱਦਦ ਨਾਲ ਤੁਸੀਂ ਕਿਸੇ ਦੂਜੇ ਵਿਅਕਤੀ ਦੀ ਫੋਟੇ ਜਾਂ ਵੀਡੀਓ ’ਤੇ ਕਿਸੇ ਹੋਰ ਦਾ ਚਿਹਰਾ ਲਾ ਕੇ ਉਸ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਬਦਲ ਵੀ ਸਕਦੇ ਹੋ। (Deepfake)</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="ਸਹੀ ਫੈਸਲਾ ਲੈਣ ਦੀ ਜ਼ਰੂਰਤ" href="http://10.0.0.122:1245/the-need-to-make-the-right-decision/">ਸਹੀ ਫੈਸਲਾ ਲੈਣ ਦੀ ਜ਼ਰੂਰਤ</a></strong></h4>
<p style="text-align:justify;">ਇੱਕ ਰਿਪੋਰਟ ਅਨੁਸਾਰ ਇਸ ਦਾ ਸਭ ਤੋਂ ਜ਼ਿਆਦਾ ਇਸਤੇਮਾਲ ਲਗਭਗ 96 ਪ੍ਰਤੀਸ਼ਤ ਦੇ ਆਸ-ਪਾਸ ਅਸ਼ਲੀਲ ਸਮੱਗਰੀ ਬਣਾਉਣ ’ਚ ਹੁੰਦਾ ਹੈ ਕੁਝ ਲੋਕ ਇਸ ਦੀ ਵਰਤੋਂ ਆਪਣੇ ਮਰ ਚੁੱਕੇ ਰਿਸ਼ਤੇਦਾਰਾਂ ਦੀਆਂ ਤਸਵੀਰਾਂ ਨੂੰ ਐਨੀਮੇਟ ਕਰਨ ’ਚ ਵੀ ਕਰਦੇ ਹਨ ਪਰ ਹੁਣ ਡੀਪਫੇਕ ਕੰਟੈਂਟ ਦੀ ਵਰਤੋਂ ਦੇਸ਼ ਅਤੇ ਵਿਦੇਸ਼ ਦੀ ਰਾਜਨੀਤੀ ’ਚ ਵੀ ਹੋਣ ਲੱਗੀ ਹੈ ਸਿਆਸੀ ਪਾਰਟੀਆਂ ਆਪਣੇ ਚੋਣ ਪ੍ਰਚਾਰ ’ਚ ਇਸ ਤਕਨੀਕ ਦੀ ਜੰਮ ਕੇ ਵਰਤੋਂ ਕਰ ਰਹੀਆਂ ਹਨ ਆਮ ਆਦਮੀ ਨੂੰ ਗੁੰਮਰਾਹ ਕਰਨ ਅਤੇ ਵੱਡੀਆਂ ਹਸਤੀਆਂ ਦੀ ਛਵ੍ਹੀ ਅਤੇ ਪ੍ਰਤਿਸ਼ਠਾ ਨੂੰ ਧੁੰਦਲਾ ਕਰਨ ’ਚ ਹੁਣ ਇਸ ਤਕਨੀਕ ਦੀ ਵਿਆਪਕ ਵਰਤੋਂ ਹੋਣ ਲੱਗੀ ਹੈ ਪਬਲਿਕ ਪਲੇਟਫਾਰਮਸ ’ਤੇ ਮੌਜੂਦ ਫੋਟੋਜ ਦੀ ਮੱਦਦ ਨਾਲ ਅਸਾਨੀ ਨਾਲ ਡੀਪਫੇਕ ਵੀਡੀਓ ਬਣਾਈ ਜਾ ਸਕਦੀ ਹੈ। (Deepfake)</p>
<p style="text-align:justify;">ਅਜਿਹੇ ਸਮੇਂ ’ਚ ਜਦੋਂ ਕੋਈ ਅਨਟਰੇਂਡ ਵੀ ਆਸਾਨੀ ਨਾਲ ਫਰਜੀ ਵੀਡੀਓ ਬਣਾ ਕੇ ਸੱਚ ਅਤੇ ਝੂਠ ਦਾ ਫਰਕ ਮਿਟਾ ਸਕਦਾ ਹੈ, ਕਿਸੇ ਵੀ ਵੀਡੀਓ ’ਤੇ ਝੱਟ ਭਰੋਸਾ ਨਾ ਕਰੋ ਕਿਉਂਕਿ ਡੀਪਫੇਕ ਵੀਡੀਓ ਨਾਲ ਘਿਰੀ ਵਰਚੁਅਲ ਦੁਨੀਆ ’ਚ ਅੱਖੀਂ ਦੇਖਿਆ ਸਭ ਕੁਝ ਸੱਚ ਨਹੀਂ ਹੁੰਦਾ ਦੇਸ਼-ਵਿਦੇਸ਼ ’ਚ ਕਈ ਪ੍ਰਸਿੱਧ ਹਸਤੀਆਂ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਚੁੱਕੀਆਂ ਹਨ ਕਈ ਵਿਦੇਸ਼ੀ ਹਸਤੀਆਂ ਦੀਆਂ ਵੀ ਡੀਪਫੇਕ ਵੀਡੀਓ ਸਾਹਮਣੇ ਆ ਗਈਆਂ ਹਨ ਯੂਕਰੇਨ ਦੇ ਰਾਸ਼ਟਰਪਤੀ ਵਲਾਦੀਮੀਰ ਜੈਲੇਂਸਕੀ ਦੀ ਡੀਪਫੇਕ ਵੀਡੀਓ ’ਚ ਤਾਂ ਉਹ ਰੂਸ ਨਾਲ ਲੜ ਰਹੀ ਆਪਣੀ ਫੌਜ ਨੂੰ ਸਰੈਂਡਰ ਕਰਨ ਲਈ ਕਹਿ ਰਹੇ ਹਨ ਇਜ਼ਰਾਇਲ-ਹਮਾਸ ਜੰਗ ਦੀਆਂ ਵੀ ਕਈ ਡੀਪਫੇਕ ਵੀਡੀਓ ਸੋਸ਼ਲ ਮੀਡੀਆ ’ਤੇ ਵਾਇਰਲ ਹੋ ਗਈਆਂ ਹਨ। (Deepfake)</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="ਭੂਚਾਲ ਦੇ ਤੇਜ਼ ਝਟਕੇ, ਲੋਕਾਂ ’ਚ ਦਹਿਸ਼ਤ" href="http://10.0.0.122:1245/strong-earthquakes-terror-among-the-people/">ਭੂਚਾਲ ਦੇ ਤੇਜ਼ ਝਟਕੇ, ਲੋਕਾਂ ’ਚ ਦਹਿਸ਼ਤ</a></strong></h4>
<p style="text-align:justify;">ਫ਼ਿਰ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਨੇ ਵੀ ਡੀਪਫੇਕ ਨੂੰ ਦੇਸ਼ ਲਈ ਸਭ ਤੋਂ ਵੱਡੇ ਖਤਰਿਆਂ ’ਚੋਂ ਇੱਕ ਦੱਸ ਇਸ ਖਿਲਾਫ਼ ਜਨਤਾ ਨੂੰ ਜਾਗਰੂਕ ਅਤੇ ਸਾਵਧਾਨ ਕਰਨ ’ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ ਹੈ ਭਾਰਤ ਲਈ ਇਹ ਵੱਡਾ ਖਤਰਾ ਇਸ ਲਈ ਵੀ ਹੈ ਕਿ ਭਾਰਤ ਵਿਭਿੰਨਤਾ ਵਾਲਾ ਦੇਸ਼ ਹੈ, ਇੱਥੋਂ ਦੀ ਜਨਤਾ ਛੋਟੀਆਂ-ਛੋਟੀਆਂ ਗੱਲਾਂ ’ਤੇ ਭਾਵੁਕ ਅਤੇ ਭੜਕ ਜਾਂਦੀ ਹੈ ਅਸਲੀ ਅਤੇ ਨਕਲੀ ਭਾਵ ਡੀਪਫੇਕ ਦਾ ਪਤਾ ਲਾਉਣ ਲਈ ਚੌਕਸੀ ਅਤੇ ਸਾਵਧਾਨੀ ਵਰਤਣ ਦੀ ਉਮੀਦ ਹੈ ਜੇਕਰ ਵੀਡੀਓ ’ਚ ਅੱਖ ਅਤੇ ਨੱਕ ਕਿਤੇ ਹੋਰ ਜਾ ਰਿਹਾ ਹੈ ਜਾਂ ਵੀਡੀਓ ’ਚ ਅੱਖਾਂ ਨਹੀਂ ਝਮੱਕੀਆਂ ਗਈਆਂ ਤਾਂ ਸਮਝ ਜਾਓ ਇਹ ਡੀਪਫੇਕ ਕੰਟੈਂਟ ਹੈ ਕੰਟੈਂਟ ਦੀ ਕਲਰਿੰਗ ਨੂੰ ਵੀ ਦੇਖ ਕੇ ਪਤਾ ਲੱਗ ਸਕਦਾ ਹੈ ਕਿ ਤਸਵੀਰ ਜਾਂ ਵੀਡੀਓ ’ਚ ਛੇੜਛਾੜ ਹੋਈ ਹੈ। (Deepfake)</p>
<p style="text-align:justify;">ਕਈ ਚਰਚਿਤ ਮਹਿਲਾ ਹਸਤੀਆਂ ਅਤੇ ਸਿਨੇ ਕਲਾਕਾਰਾਂ ਦੇ ਚਿਹਰੇ ਡੀਪਫੇਕ ਟੈਕ ਦੀ ਮੱਦਦ ਨਾਲ ਗਲਤ ਵੀਡੀਓ ’ਤੇ ਲਾ ਕੇ ਉਨ੍ਹਾਂ ਨੂੰ ਆਨਲਾਈਨ ਸ਼ੇਅਰ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ ਪਾਪੁਲਰ ਅਮਰੀਕਨ ਅਡਲਟ ਸਾਈਟ ਦੀ ਟੇ੍ਰਡਿੰਗ ਟੈਗਸ ਰਿਪੋਰਟ ਦਿਖਾਉਂਦੀ ਹੈ ਕਿ ਅਜਿਹੀਆਂ ਵੀਡੀਓ ਪਿਛਲੇ ਕੁਝ ਮਹੀਨਿਆਂ ’ਚ ਤੇਜ਼ੀ ਨਾਲ ਚਰਚਿਤ ਹੋਈਆਂ ਹਨ ਅਤੇ ਇਨ੍ਹਾਂ ਨੂੰ ਵਿਆਪਕ ਤੌਰ ’ਤੇ ਸਰਚ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ ਜਾਂ ਦੇਖਿਆ ਜਾ ਰਿਹਾ ਹੈ ਮਾਹਿਰਾਂ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ ਜਿਵੇਂ-ਜਿਵੇਂ ਇਹ ਟੈਕਨਾਲੋਜੀ ਪ੍ਰਸਿੱਧ ਹੋਵੇਗੀ, ਇਸ ਦੀ ਦੁਰਵਰਤੋਂ ਅਤੇ ਅਜਿਹੇ ਕ੍ਰਾਈਮ ਵੀ ਵਧਦੇ ਜਾਣਗੇ ਬਨਾਉਟੀ ਬੁੱਧੀ, ਕੰਪਿਊਟਰ ਵਿਗਿਆਨ ਦੀ ਇੱਕ ਸ਼ਾਖਾ ਹੈ ਜੋ ਮਸ਼ੀਨਾਂ ਅਤੇ ਸਾਫਟਵੇਅਰ ਨੂੰ ਬੁੱਧੀ ਨਾਲ ਵਿਕਸਿਤ ਕਰਦਾ ਹੈ 1955 ’ਚ ਜਾਨ ਮੈਕਾਰਥੀ ਨੇ ਇਸ ਨੂੰ ਬਨਾਉਟੀ ਬੁੱਧੀ ਦਾ ਨਾਂਅ ਦਿੱਤਾ। (Deepfake)</p>
<p style="text-align:justify;">ਉਸ ਨੂੰ ‘ਵਿਗਿਆਨ ਅਤੇ ਇੰਜੀਨੀਅਰਿੰਗ ਦੇ ਬੁੱਧੀਮਾਨ ਮਸ਼ੀਨਾਂ ਬਣਾਉਣ ਦੇ’ ਦੇ ਰੂਪ ’ਚ ਪਰਿਭਾਸ਼ਿਤ ਕੀਤਾ ਬਨਾਉਟੀ ਬੁੱਧੀ ਰਿਸਰਚ ਦੇ ਟੀਚਿਆਂ ’ਚ ਤਰਕ, ਗਿਆਨ ਦੀ ਯੋਜਨਾ, ਸਿੱਖਣ, ਧਾਰਨਾ ਤੇ ਵਸਤੂਆਂ ’ਚ ਹੇਰਫੇਰ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਆਦਿ ਸ਼ਾਮਲ ਹਨ ਵਰਤਮਾਨ ’ਚ, ਇਸ ਟੀਚੇ ਤੱਕ ਪਹੁੰਚਣ ਲਈ ਅੰਕੜਾ ਵਿਧੀਆਂ, ਕੰਪਿਊਟੈਸ਼ਨਲ ਬੁੱਧੀ ਅਤੇ ਪਾਰੰਪਰਿਕ ਖੁਫ਼ੀਆ ਵਿਧੀਆਂ ਸ਼ਾਮਲ ਹਨ ਬਨਾਉਣੀ ਬੁੱਧੀ ਦਾ ਦਾਅਵਾ ਐਨਾ ਹੈ ਕਿ ਮਨੁੱਖ ਦੀ ਬੁੱਧੀ ਦਾ ਇੱਕ ਕੇਂਦਰੀ ਸੰੱਪਤੀ ਇੱਕ ਮਸ਼ੀਨ ਦੁਆਰਾ ਪਾਲਣ ਕਰ ਸਕਦਾ ਹੈ ਬਿਜਲੀ ਦੇ ਬੱਲਬ ਅਤੇ ਮੂਵੀ ਕੈਮਰੇ ਦੇ ਖੋਜਕਰਤਾ ਥਾਮਮ ਅਲਵਾ ਐਡੀਸਨ ਨੇ ਕਿਹਾ ਸੀ ਕਿ ਹਰ ਨਵੀਂ ਤਕਨੀਕ ਸੁਵਿਧਾਵਾਂ ਦੇ ਨਾਲ ਕੁਝ ਨਕਾਰਾਤਮਕ ਪਹਿਲੂ ਵੀ ਲਿਆਉਂਦੀ ਹੈ। (Deepfake)</p>
<p style="text-align:justify;">ਨਿੱਤ ਨਵੀਆਂ ਤਕਨੀਕ ਦੇ ਦੌਰ ’ਚੋਂ ਲੰਘ ਰਹੀ ਦੁਨੀਆ ’ਚ ਉਨ੍ਹਾਂ ਦਾ ਕਥਨ ਪ੍ਰਾਸੰਗਿਕ ਬਣਿਆ ਹੋਇਆ ਹੈ ਬਨਾਉਟੀ ਬੌਧਿਕਤਾ ਤਕਨੀਕ ਦੇ ਆਉਣ ਨੇ ਜੇਕਰ ਸੁਵਿਧਾਵਾਂ ਦੇ ਨਵੇਂ ਰਸਤੇ ਖੋਲ੍ਹੇ ਹਨ ਤਾਂ ਦੁਨੀਆ ਭਾਰ ’ਚ ਚਿੰਤਾਵਾਂ ਵੀ ਵਧਾ ਦਿੱਤੀਆਂ ਹਨ ਇਸ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਵੱਡੇ ਪੈਮਾਨੇ ’ਤੇ ਸ਼ੁਰੂ ਹੋ ਗਈ ਹੈ ਕਿਸੇ ਵੀ ਗੱਲ ਜਾਂ ਘਟਨਾ ਦੇ ਸੱਚ ਹੋਣ ਦਾ ਸਭ ਤੋਂ ਵੱਡਾ ਸਬੂਤ ਉਸ ਦੀ ਕਿਸੇ ਵੀਡੀਓ ਨੂੰ ਮੰਨਿਆ ਜਾਂਦਾ ਰਿਹਾ ਹੈ ਪਰ ਹੁਣ ਚੀਜ਼ਾਂ ਬਦਲ ਗਈਆਂ ਹਨ ਅੱਖੀਂ ਦੇਖੀ ’ਤੇ ਅੇਤੇ ਕਿਸੇ ਵੀ ਤਰ੍ਹਾਂ ਦੇ ਡਿਜ਼ੀਟਲ ਫੋਟੋ ਜਾਂ ਵੀਡੀਓ ’ਤੇ ਭਰੋਸਾ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ ਡੀਪਫੇਕ ਟੈਕਨਾਲੋਜੀ ਦੀ ਮੱਦਦ ਨਾਲ ਅਜਿਹੀਆਂ ਵੀਡੀਓ ਬਣਾਈਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ ਕਿ ਵੱਡੇ-ਵੱਡੇ ਐਕਸਪਰਟਸ ਵੀ ਧੋਖਾ ਖਾ ਜਾਣ ਆਮ ਇੰਟਰਨੈਟ ਯੂਜਰ ਸ਼ਾਇਦ ਹੀ ਸਮਝ ਸਕੇ। (Deepfake)</p>
<h3>ਭਾਰਤ ਸਰਕਾਰ ਇਸ ਮੁੱਦੇ ’ਤੇ ਇਸ ਦੇ ਖ਼ਤਰੇ ਨੂੰ ਦੇਖਦਿਆਂ ਗੰਭੀਰ ਹੈ</h3>
<p style="text-align:justify;">ਕਿ ਵੀਡੀਓ ਡੀਪਫੇਕ ਹੈ ਅਤੇ ਉਸ ’ਚ ਦਿਸਣ ਵਾਲਾ ਸ਼ਖਸ ਕੋਈ ਹੋਰ ਹੈ ਇਹ ਟੈਕਨਾਲੋਜੀ ਵੀਡੀਓਜ਼ ਨਾਲ ਬਿਲਕੁਲ ਉਂਜ ਹੀ ਕੰਮ ਕਰਦੀ ਹੈ, ਜਿਵੇਂ ਫੋਟੋ ਲਈ ਫੋਟੋਸ਼ਾਪ ਕਰਦਾ ਹੈ ਭਾਰਤ ’ਚ ਡੀਪਫੇਕ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋ ਰੋਕਣ ਅਤੇ ਫਰਜ਼ੀ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਲਈ ਬਿਹਤਰ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ਹੈ ਚਿੰਤਾ ਦੀ ਗੱਲ ਹੈ ਕਿ ਸੋਸ਼ਲ ਮੀਡੀਆ ਮੰਚਾਂ ਤੇ ਟੈਕ ਕੰਪਨੀਆਂ ਨੇ ਡੀਪਫੇਕ ਵੀਡੀਓ ’ਤੇ ਰੋਕ ਲਈ ਕੋਈ ਵੱਡੀ ਪਹਿਲ ਨਹੀਂ ਕੀਤੀ ਹੈ ਪਰ ਭਾਰਤ ਸਰਕਾਰ ਇਸ ਮੁੱਦੇ ’ਤੇ ਇਸ ਦੇ ਖ਼ਤਰੇ ਨੂੰ ਦੇਖਦਿਆਂ ਗੰਭੀਰ ਹੈ ਸਰਕਾਰ ਇੰਟਰਨੈਟ ਇਸਤੇਮਾਲ ਕਰਨ ਵਾਲੇ ਸਾਰੇ ਡਿਜ਼ੀਟਲ ਨਾਗਰਿਕਾਂ ਦੀ ਸੁਰੱਖਿਆ ਅਤੇ ਭਰੋਸੇ ਨੂੰ ਯਕੀਨੀ ਕਰਨ ਲਈ ਵਚਨਬੱਧ ਹੈ ਸਰਕਾਰ ਨੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਕੰਪਨੀਆਂ ਨੂੰ ਗਲਤ ਸੂਚਨਾਵਾਂ, ਡੀਪਫੇਕ ਅਤੇ ਲੋੜੀਂਦੀ ਸਮੱਗਰੀ ਦੀ ਪਛਾਣ ਕਰਕੇ 36 ਘੰਟੇ ਅੰਦਰ ਉਨ੍ਹਾਂ ਨੂੰ ਹਟਾਉਣ ਦੇ ਨਿਰਦੇਸ਼ ਦਿੱਤੇ ਜਾ ਚੁੱਕੇ ਹਨ। (Deepfake)</p>
<p style="text-align:justify;">ਸੂਚਨਾ ਤਕਨੀਕੀ ਮੰਤਰੀ ਅਸ਼ਵਨੀ ਵੈਸ਼ਣਵ ਨੇ ਸਾਫ਼ ਕਹਿ ਦਿੱਤਾ ਕਿ ਸੋਸ਼ਲ਼ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮ ਜੇਕਰ ਡੀਪਫੇਕ ਕੰਟੈਂਟ ਨੂੰ ਹਟਾਉਣ ਲਈ ਲੋੜੀਂਦੇ ਕਦਮ ਨਹੀਂ ਚੁੱਕਦੇ ਹਨ ਤਾਂ ਉਨ੍ਹਾਂ ਨੂੰ ਮਿਲਣ ਵਾਲੀ ਸੁਰੱਖਿਆ ਨੂੰ ਵਾਪਸ ਲੈ ਲਿਆ ਜਾਵੇਗਾ ਕਈ ਦੇਸ਼ਾਂ ਦੀਆਂ ਸਰਕਾਰਾਂ ਡੀਪਫੇਕ ਦੇ ਨਿਯਮਾਂ ਦੀ ਤਿਆਰੀ ’ਚ ਹਨ ਕੁਝ ਅਮਰੀਕੀ ਰਾਜਾਂ ’ਚ ਬਤੌਰ ਸਹਿਮਤੀ ਡੀਪਫੇਕ ਬਣਾਉਣ ਨੂੰ ਅਪਰਾਧ ਐਲਾਨ ਕੀਤਾ ਜਾ ਚੁੱਕਾ ਹੈ ਯੂਰਪੀ ਦੇਸ਼ਾਂ ’ਚ ਵੀ ਕਾਨੂੰਨ ਬਣਾਉਣ ਦੀ ਤਿਆਰੀ ਚੱਲ ਰਹੀ ਹੈ ਸਿਰਫ ਕਾਨੂੰਨ ਬਣਾਉਣ ਨਾਲ ਸਮੱਸਿਆ ’ਤੇ ਪਾਰ ਪਾਉਣਾ ਸ਼ੱਕੀ ਹੈ ਜ਼ਰੂਰਤ ਅਜਿਹੇ ਤੰਤਰ ਦੀ ਹੈ, ਜੋ ਡੀਪਫੇਕ ਦੀ ਸਮੁੱਚੀ ਨਿਗਰਾਨੀ ਰੱਖ ਬੇਲੋੜੀ ਸਮੱਗਰੀ ਫੈਲਾਉਣ ਦੇ ਸਾਰੇ ਰਸਤੇ ਬੰਦ ਰੱਖੇ।</p>
]]>
                    </content:encoded>
                
                                                            <category>ਦੇਸ਼</category>
                                            <category>Breaking News</category>
                                            <category>ਲੇਖ</category>
                                            <category>ਇੱਕ ਨਜ਼ਰ</category>
                                    

                <link>https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B2%E0%A9%87%E0%A8%96/strictness-is-necessary-to-control-misuse-of-technology/article-39496</link>
                <guid>https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B2%E0%A9%87%E0%A8%96/strictness-is-necessary-to-control-misuse-of-technology/article-39496</guid>
                <pubDate>Fri, 24 Nov 2023 11:51:18 +0530</pubDate>
                                    <enclosure
                        url="https://sachkahoonpunjabi.com/media/2023-11/ai1.jpg"                         length="31559"                         type="image/jpeg"  />
                
                                    <dc:creator>
                        <![CDATA[Sach Kahoon Punjabi Desk]]>
                    </dc:creator>
                            </item>
            <item>
                <title>ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਬੰਦ ਹੋਵੇ</title>
                                    <description>
                        <![CDATA[ਡੀਪਫੇਕ ਏ ਆਈ ਤਕਨੀਕ ਦੀ ਵੀਡੀਓ ਨੇ ਭਾਰਤੀ ਸਮਾਜ ਲਈ ਨਵੇਂ ਖਤਰੇ ਖੜ੍ਹੇ ਕਰ ਦਿੱਤੇ ਹਨ ਬੀਤੇ ਦਿਨੀਂ ਇੱਕ ਅਦਾਕਾਰ ਦੀ ਅਸ਼ਲੀਲ ਵੀਡੀਓ ਸਾਹਮਣੇ ਆਉਣ ਤੋਂ ਬਾਅਦ ਕਾਫ਼ੀ ਹੰਗਾਮਾ ਹੋਇਆ ਸੀ ਹੁਣ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਨੇ ਇਸ ਰੁਝਾਨ ’ਤੇ ਚਿੰਤਾ ਪ੍ਰਗਟ ਕਰਦਿਆਂ ਇਸ ਨੂੰ ਅਰਾਜਕਤਾ ਫੈਲਾਉਣ ਵਾਲੀ ਕਰਾਰ ਦਿੱਤਾ ਹੈ ਅਸਲ ’ਚ ਇਹ ਤਕਨੀਕ […]
]]>
                    </description>
                
                                    <content:encoded>
                        <![CDATA[<a href="https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B8%E0%A9%B0%E0%A8%AA%E0%A8%BE%E0%A8%A6%E0%A8%95%E0%A9%80/stop-misuse-of-technology/article-39364"><img src="https://sachkahoonpunjabi.com/media/400/2023-11/ai.jpg" alt=""></a><br /><p style="text-align:justify;">ਡੀਪਫੇਕ ਏ ਆਈ ਤਕਨੀਕ ਦੀ ਵੀਡੀਓ ਨੇ ਭਾਰਤੀ ਸਮਾਜ ਲਈ ਨਵੇਂ ਖਤਰੇ ਖੜ੍ਹੇ ਕਰ ਦਿੱਤੇ ਹਨ ਬੀਤੇ ਦਿਨੀਂ ਇੱਕ ਅਦਾਕਾਰ ਦੀ ਅਸ਼ਲੀਲ ਵੀਡੀਓ ਸਾਹਮਣੇ ਆਉਣ ਤੋਂ ਬਾਅਦ ਕਾਫ਼ੀ ਹੰਗਾਮਾ ਹੋਇਆ ਸੀ ਹੁਣ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਨੇ ਇਸ ਰੁਝਾਨ ’ਤੇ ਚਿੰਤਾ ਪ੍ਰਗਟ ਕਰਦਿਆਂ ਇਸ ਨੂੰ ਅਰਾਜਕਤਾ ਫੈਲਾਉਣ ਵਾਲੀ ਕਰਾਰ ਦਿੱਤਾ ਹੈ ਅਸਲ ’ਚ ਇਹ ਤਕਨੀਕ ਇੰਨੀ ਗਹਿਰਾਈ ’ਚ ਨਕਲੀ ਤਸਵੀਰ ਜਾਂ ਵੀਡੀਓ ਤਿਆਰ ਕਰਦੀ ਹੈ ਕਿ ਜੋ ਅਸਲੀ ਦਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਭੁਲੇਖਾ ਪਾਉਂਦੀ ਹੈ ਸਿਹਤਮੰਦ ਮਨੋਰੰਜਨ ਦੀ ਤਾਂ ਕੋਈ ਹੱਦ ਹੁੰਦੀ ਹੈ ਪਰ ਤਕਨੀਕ ਦੀ ਇਸ ਤਰ੍ਹਾਂ ਭੱਦੇ ਰੂਪ ’ਚ ਵਰਤੋਂ ਵਿਅਕਤੀ ਦੀ ਇੱਜਤ ਅਤੇ ਸ਼ਾਨ ਦੇ ਖਿਲਾਫ਼ ਹੈ ਤਕਨੀਕ ਦੇ ਦੋ ਪਹਿਲੂ ਹੁੰਦੇ ਹਨ।</p>
<p style="text-align:justify;">ਇਸ ਦੀ ਚੰਗੀ ਤੇ ਮਾੜੀ ਦੋਵਾਂ ਤਰ੍ਹਾਂ ਵਰਤੋਂ ਹੁੰਦੀ ਹੈ ਅਸਲ ’ਚ ਕਾਨੂੰਨ ਕਾਇਦੇ ਬਣਾਉਣ ਜਾਂ ਲਾਗੂ ਕਰਨ ’ਚ ਜ਼ਿਆਦਾ ਸਮਾਂ ਲੱਗਣ ਨਾਲ ਲੋਕਾਂ ਦਾ ਸ਼ਖਸੀ ਨੁਕਸਾਨ ਹੁੰਦਾ ਹੈ ਕਿਸੇ ਦੇ ਚਰਿੱਤਰ ਨਾਲ ਖਿਲਵਾੜ ਮਾਨਸਿਕ, ਸਮਾਜਿਕ ਤੇ ਆਰਥਿਕ ਤੌਰ ’ਤੇ ਵੀ ਬਰਬਾਦੀ ਦਾ ਕਾਰਨ ਬਣਦਾ ਹੈ ਭਾਵੇਂ ਆਈਟੀ ਕਾਨੂੰਨ 2000 ਦੇ ਤਹਿਤ ਕਿਸੇ ਵਿਅਕਤੀ ਦਾ ਅਪਮਾਨ ਕਰਨ ਦੇ ਖਿਲਾਫ਼ ਕਾਰਵਾਈ ਹੋ ਸਕਦੀ ਹੈ ਪਰ ਇਸ ਕਾਨੂੰਨ ਨੂੰ ਹੋਰ ਪ੍ਰਭਾਵੀ ਢੰਗ ਨਾਲ ਮਜ਼ਬੂਤ ਕਰਨ ਤੇ ਜਾਗਰੂਕ ਕਰਨ ਤੇ ਲਾਗੂ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ਹੈ ਇਸ ਕਾਨੂੰਨ ਦੇ ਤਹਿਤ ਦੋਸ਼ੀ ਨੂੰ ਤਿੰਨ ਸਾਲ ਦੀ ਕੈਦ ਤੇ ਦੋ ਲੱਖ ਜ਼ੁਰਮਾਨਾ ਹੋ ਸਕਦਾ ਹੈ। (Deepfake)</p>
<h4><strong>ਇਹ ਵੀ ਪੜ੍ਹੋ : <a title="ਗ੍ਰੇਪ ਨੂੰ ਸਖ਼ਤੀ ਨਾਲ ਲਾਗੂ ਕਰਨ ਲਈ ਛੇ ਮੈਂਬਰੀ ਟਾਸਕ ਫੋਰਸ ਬਣਾਈ" href="http://10.0.0.122:1245/a-six-member-task-force-was-formed-to-strictly-enforce-grap/">ਗ੍ਰੇਪ ਨੂੰ ਸਖ਼ਤੀ ਨਾਲ ਲਾਗੂ ਕਰਨ ਲਈ ਛੇ ਮੈਂਬਰੀ ਟਾਸਕ ਫੋਰਸ ਬਣਾਈ</a></strong></h4>
<p style="text-align:justify;">ਸੋਸ਼ਲ ਮੀਡੀਆ ਦੇ ਤੇਜ਼-ਤਰਾਰ ਯੁੱਗ ’ਚ ਅਜਿਹੀ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਹੋਰ ਵੀ ਖਤਰਨਾਕ ਹੁੰਦੀ ਹੈ ਕੁਝ ਹੀ ਸੈਕਿੰਡਾਂ ’ਚ ਵਾਇਰਲ ਹੋਈ ਵੀਡੀਓ ਦੁਨੀਆ ਭਰ ’ਚ ਵਿਅਕਤੀ ਦੀ ਸ਼ਾਨ ’ਤੇ ਦਾਗ ਲਾ ਦਿੰਦੀ ਹੈ ਅਸਲ ’ਚ ਇਹ ਮਸਲਾ ਦੂਹਰਾ ਤੇ ਗੁੰਝਲਦਾਰ ਹੈ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਦੇ ਨਾਲ-ਨਾਲ ਸੋਸ਼ਲ ਮੀਡੀਆ ਸਬੰਧੀ ਕਾਨੂੰਨਾਂ ਨਾਲ ਜੁੜਿਆ ਹੋਇਆ ਪਿਛਲੇ ਇੱਕ ਦਹਾਕੇ ਤੋਂ ਸੋਸ਼ਲ ਮੀਡੀਆ ’ਚ ਅਪਮਾਨਜਨਕ ਵੀਡੀਓ, ਆਡੀਓ ਅਤੇ ਤਸਵੀਰਾਂ ਦਾ ਗਲਤ ਰੁਝਾਨ ਰਿਹਾ ਉਸ ਸਬੰਧੀ ਮੁਲਜ਼ਮ ਖਿਲਾਫ਼ ਸਮੇਂ ਸਿਰ ਕਾਨੂੰਨੀ ਸਖ਼ਤੀ ਨਾ ਹੋਣ ਕਾਰਨ ਸ਼ਰਾਰਤੀ ਅਨਸਰਾਂ ਦੇ ਹੌਂਸਲੇ ਵਧਦੇ ਗਏ ਪ੍ਰਗਟਾਵੇ ਦੀ ਅਜ਼ਾਦੀ ਦੇ ਨਾਂਅ ’ਤੇ ਸ਼ਰਾਰਤੀ ਅਨਸਰਾਂ ਨੇ ਕਾਨੂੰਨੀ ਢਿੱਲ-ਮੱਠ ਦਾ ਫਾਇਦਾ ਉਠਾਇਆ ਹੈ। (Deepfake)</p>
<p style="text-align:justify;">ਇਸ ਢਿੱਲ-ਮੱਠ ਨੇ ਡੀਪਫੇਕ ਜਿਹੀ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਦੇ ਵਧਣ-ਫੁੱਲਣ ਲਈ ਜ਼ਮੀਨ ਤਿਆਰ ਕੀਤੀ ਹੈ ਇਸ ਲਈ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਰੋਕਣ ਲਈ ਨੇਮਬੰਦੀ ਬਣਾਉਣ ਦੇ ਨਾਲ-ਨਾਲ ਸੋਸ਼ਲ ਮੀਡੀਆ ਦੀ ਦੁਰਵਰਤੋਂ ਰੋਕਥਾਮ ਸਬੰਧੀ ਬਣੇ ਕਾਨੂੰਨ ਦੀ ਸਮੀਖਿਆ ਕੀਤੀ ਜਾਵੇ ਸਖਤੀ ਮਨੁੱਖੀ ਮਾਨਸਿਕਤਾ ਦਾ ਅੰਗ ਹੈ ਸਖਤੀ ਨਾਲ ਹੀ ਇਸ ਮਾੜੇ ਰੁਝਾਨ ਨੂੰ ਰੋਕਿਆ ਜਾ ਸਕਦਾ ਹੈ ਇਸ ਦੇ ਨਾਲ ਹੀ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਲੋਕਾਂ ’ਚ ਜਾਗਰੂਕਤਾ ਵੀ ਪੈਦਾ ਕੀਤੀ ਜਾਵੇ ਤਾਂ ਕਿ ਫਰਜ਼ੀ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਤੁਰੰਤ ਕੀਤੀ ਜਾ ਸਕੇ। (Deepfake)</p>
]]>
                    </content:encoded>
                
                                                            <category>ਦੇਸ਼</category>
                                            <category>Breaking News</category>
                                            <category>ਸੰਪਾਦਕੀ</category>
                                            <category>ਇੱਕ ਨਜ਼ਰ</category>
                                            <category>ਵਿਚਾਰ</category>
                                    

                <link>https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B8%E0%A9%B0%E0%A8%AA%E0%A8%BE%E0%A8%A6%E0%A8%95%E0%A9%80/stop-misuse-of-technology/article-39364</link>
                <guid>https://sachkahoonpunjabi.com/%E0%A8%B5%E0%A8%BF%E0%A8%9A%E0%A8%BE%E0%A8%B0/%E0%A8%B8%E0%A9%B0%E0%A8%AA%E0%A8%BE%E0%A8%A6%E0%A8%95%E0%A9%80/stop-misuse-of-technology/article-39364</guid>
                <pubDate>Sat, 18 Nov 2023 10:27:07 +0530</pubDate>
                                    <enclosure
                        url="https://sachkahoonpunjabi.com/media/2023-11/ai.jpg"                         length="31559"                         type="image/jpeg"  />
                
                                    <dc:creator>
                        <![CDATA[Sach Kahoon Punjabi Desk]]>
                    </dc:creator>
                            </item>

            </channel>
        </rss>
        