Pune

Microsoft 365 Copilot ਵਿੱਚ ਜ਼ੀਰੋ-ਕਲਿੱਕ ਕਮਜ਼ੋਰੀ: ਡਾਟਾ ਲੀਕ ਦਾ ਖ਼ਤਰਾ ਟਾਲਿਆ

Microsoft 365 Copilot ਵਿੱਚ ਜ਼ੀਰੋ-ਕਲਿੱਕ ਕਮਜ਼ੋਰੀ: ਡਾਟਾ ਲੀਕ ਦਾ ਖ਼ਤਰਾ ਟਾਲਿਆ

Microsoft 365 Copilot ਵਿੱਚ ਜ਼ੀਰੋ-ਕਲਿੱਕ ਕਮਜ਼ੋਰੀ ਮਿਲਣ ਕਾਰਨ ਡਾਟਾ ਲੀਕ ਦਾ ਖ਼ਤਰਾ ਸੀ, Microsoft ਨੇ ਤੁਰੰਤ ਹੱਲ ਕੀਤਾ ਅਤੇ ਯੂਜ਼ਰਜ਼ ਨੂੰ ਸੁਰੱਖਿਅਤ ਦੱਸਿਆ।

ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਨਾਲ ਚੱਲਣ ਵਾਲਾ ਆਫ਼ਿਸ ਅਸਿਸਟੈਂਟ Microsoft 365 Copilot ਇਨ੍ਹਾਂ ਦਿਨਾਂ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਮਾਹਿਰਾਂ ਦੀ ਨਿਗਾਹ ਵਿੱਚ ਹੈ। ਇੱਕ ਰਿਪੋਰਟ ਮੁਤਾਬਕ, Copilot ਵਿੱਚ ਇੱਕ ਐਸੀ ਗੰਭੀਰ ਕਮਜ਼ੋਰੀ ਪਾਈ ਗਈ, ਜਿਸ ਕਾਰਨ ਇੱਕ 'ਜ਼ੀਰੋ-ਕਲਿੱਕ ਅਟੈਕ' ਸੰਭਵ ਸੀ — ਯਾਨੀ ਯੂਜ਼ਰ ਨੂੰ ਕਿਸੇ ਵੀ ਲਿੰਕ 'ਤੇ ਕਲਿੱਕ ਕੀਤੇ ਬਿਨਾਂ ਜਾਂ ਕੋਈ ਫ਼ਾਈਲ ਡਾਊਨਲੋਡ ਕੀਤੇ ਬਿਨਾਂ, ਉਨ੍ਹਾਂ ਦਾ ਸੰਵੇਦਨਸ਼ੀਲ ਡਾਟਾ ਖ਼ਤਰੇ ਵਿੱਚ ਪੈ ਸਕਦਾ ਸੀ।

ਇਹ ਹੈਰਾਨ ਕਰਨ ਵਾਲੀ ਜਾਣਕਾਰੀ AIM Security ਨਾਮਕ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਸਟਾਰਟਅਪ ਨੇ ਦਿੱਤੀ ਹੈ। ਉਨ੍ਹਾਂ ਨੇ ਇਸ ਕਮਜ਼ੋਰੀ ਨੂੰ 'EchoLeak' ਨਾਮ ਦਿੱਤਾ, ਜੋ ਕਿ ਇੱਕ ਕਿਸਮ ਦਾ Cross-Prompt Injection Attack (XPIA) ਸੀ। ਇਹ ਹਮਲਾ ਕਿਸੇ ਵੀ ਯੂਜ਼ਰ ਇੰਟਰੈਕਸ਼ਨ ਤੋਂ ਬਿਨਾਂ Copilot ਨੂੰ ਚਲਾਕੀ ਨਾਲ ਨਿਰਦੇਸ਼ ਦੇ ਕੇ ਉਸਨੂੰ ਯੂਜ਼ਰ ਦੀ ਨਿੱਜੀ ਜਾਣਕਾਰੀ ਕੱਢਣ ਲਈ ਮਜਬੂਰ ਕਰਦਾ ਸੀ।

ਪੂਰਾ ਮਾਮਲਾ ਕੀ ਸੀ?

Microsoft 365 Copilot, ਜੋ Word, Excel, Outlook ਜਿਹੇ ਆਫ਼ਿਸ ਐਪਸ ਵਿੱਚ AI-ਪਾਵਰਡ ਸਹਾਇਕ ਵਾਂਗ ਕੰਮ ਕਰਦਾ ਹੈ, ਨੂੰ ਇੱਕ ਸਾਧਾਰਨ ਟੈਕਸਟ ਈਮੇਲ ਰਾਹੀਂ ਕੰਟਰੋਲ ਕੀਤਾ ਜਾ ਸਕਦਾ ਸੀ। AIM Security ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦਿਖਾਇਆ ਕਿ ਇੱਕ ਮੈਲੀਸ਼ੀਅਸ ਈਮੇਲ ਜਿਸ ਵਿੱਚ ਛੁਪੇ ਹੋਏ ਨਿਰਦੇਸ਼ ਹੁੰਦੇ ਹਨ, ਨੂੰ Copilot ਜਿਵੇਂ ਹੀ ਪ੍ਰੋਸੈਸ ਕਰਦਾ ਹੈ, ਉਹ ਯੂਜ਼ਰ ਦੀ ਜਾਣਕਾਰੀ OneDrive, Outlook ਜਾਂ Teams ਤੋਂ ਕੱਢ ਕੇ ਹਮਲਾਵਰ ਨੂੰ ਭੇਜ ਸਕਦਾ ਸੀ।

ਇਸ ਅਟੈਕ ਨੂੰ ਬਹੁਤ ਖ਼ਤਰਨਾਕ ਇਸ ਲਈ ਮੰਨਿਆ ਗਿਆ ਕਿਉਂਕਿ ਇਸ ਵਿੱਚ ਯੂਜ਼ਰ ਨੂੰ ਕੁਝ ਵੀ ਨਹੀਂ ਕਰਨਾ ਹੁੰਦਾ ਸੀ – ਨਾ ਕੋਈ ਲਿੰਕ ਖੋਲ੍ਹਣਾ, ਨਾ ਫ਼ਾਈਲ ਡਾਊਨਲੋਡ ਕਰਨੀ। ਸਿਰਫ਼ ਈਮੇਲ ਪ੍ਰਾਪਤ ਹੁੰਦੇ ਹੀ ਹਮਲਾ ਸਰਗਰਮ ਹੋ ਸਕਦਾ ਸੀ।

ਏਜੈਂਟਿਕ ਸ਼ਕਤੀ ਖ਼ਤਰੇ ਬਣ ਗਈ

AI ਚੈਟਬੋਟਸ, ਜਿਵੇਂ ਕਿ Microsoft Copilot, ਵਿੱਚ ‘ਏਜੈਂਟਿਕ ਸ਼ਕਤੀ’ ਹੁੰਦੀ ਹੈ – ਯਾਨੀ ਉਹ ਸਿਰਫ਼ ਜਵਾਬ ਨਹੀਂ ਦਿੰਦੇ, ਸਗੋਂ ਐਕਟਿਵ ਹੋ ਕੇ ਯੂਜ਼ਰ ਦੀਆਂ ਫ਼ਾਈਲਾਂ ਨੂੰ ਐਕਸੈਸ ਕਰ ਸਕਦੇ ਹਨ, ਸ਼ੈਡਿਊਲ ਬਣਾ ਸਕਦੇ ਹਨ, ਮੇਲ ਪੜ੍ਹ ਸਕਦੇ ਹਨ ਅਤੇ ਜਵਾਬ ਵੀ ਦੇ ਸਕਦੇ ਹਨ।

ਜਦੋਂ ਇਹੋ ਸ਼ਕਤੀ ਗਲਤ ਨਿਰਦੇਸ਼ਾਂ ਦੇ ਅਧੀਨ ਆ ਜਾਵੇ, ਤਾਂ ਖ਼ਤਰੇ ਦੀ ਗੰਭੀਰਤਾ ਵੱਧ ਜਾਂਦੀ ਹੈ। EchoLeak ਇਸੇ ਕਮਜ਼ੋਰੀ ਦਾ ਫ਼ਾਇਦਾ ਉਠਾ ਕੇ Copilot ਨੂੰ ‘ਆਪਣੇ ਹੀ ਖ਼ਿਲਾਫ਼’ ਇਸਤੇਮਾਲ ਕਰਦਾ ਸੀ – ਯਾਨੀ ਖੁਦ Copilot ਹੀ ਡਾਟਾ ਕੱਢ ਕੇ ਭੇਜਣ ਦਾ ਜ਼ਰੀਆ ਬਣ ਸਕਦਾ ਸੀ।

ਹਮਲਾ ਕਿਵੇਂ ਕੀਤਾ ਗਿਆ?

1. ਈਮੇਲ ਰਾਹੀਂ ਛੁਪਾ ਪ੍ਰੌਂਪਟ ਭੇਜਣਾ

ਹਮਲਾਵਰ ਇੱਕ ਐਸਾ ਈਮੇਲ ਭੇਜਦਾ, ਜਿਸ ਵਿੱਚ alt text ਜਾਂ markdown ਰਾਹੀਂ ਗੁਪਤ ਨਿਰਦੇਸ਼ ਛੁਪੇ ਹੁੰਦੇ।

2. Teams ਜਾਂ Outlook ਵਿੱਚ ਟਰਸਟਡ ਡੋਮੇਨ ਦਾ ਇਸਤੇਮਾਲ

Copilot ਐਸੇ ਟਰਸਟਡ ਪਲੇਟਫਾਰਮਸ ਨਾਲ ਜੁੜਿਆ ਹੁੰਦਾ ਹੈ, ਜਿਸ ਕਾਰਨ ਉਹ ਕਿਸੇ ਸ਼ੱਕੀ ਲਿੰਕ ਨੂੰ ਵੀ ਭਰੋਸੇਮੰਦ ਮੰਨ ਸਕਦਾ ਹੈ।

3. GET Request ਨਾਲ ਡਾਟਾ ਟ੍ਰਾਂਸਫ਼ਰ

ਇੱਕ ਵਾਰ ਨਿਰਦੇਸ਼ ਪ੍ਰੋਸੈਸ ਹੋ ਗਿਆ, ਤਾਂ Copilot ਯੂਜ਼ਰ ਦੇ ਸਿਸਟਮ ਤੋਂ ਡਾਟਾ ਕੱਢ ਕੇ ਹਮਲਾਵਰ ਦੇ ਸਰਵਰ ਨੂੰ GET ਰਿਕੁਐਸਟ ਰਾਹੀਂ ਭੇਜ ਸਕਦਾ ਸੀ।

4. ਬਿਨਾਂ ਯੂਜ਼ਰ ਪੁੱਛੇ ਵੀ ਹਮਲਾ

AIM ਨੇ ਇਹ ਵੀ ਦਿਖਾਇਆ ਕਿ ਕਿਵੇਂ Teams ਰਾਹੀਂ ਭੇਜੇ ਗਏ ਮੈਸੇਜ ਤੋਂ ਬਿਨਾਂ ਯੂਜ਼ਰ ਦੇ ਪੁੱਛੇ ਅਟੈਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਸੀ — ਯਾਨੀ ਅਸਲੀ ਜ਼ੀਰੋ-ਕਲਿੱਕ ਅਟੈਕ।

Microsoft ਦਾ ਜਵਾਬ

Microsoft ਨੇ ਇਸ ਰਿਪੋਰਟ ਨੂੰ ਸਵੀਕਾਰ ਕਰਦੇ ਹੋਏ AIM Security ਦਾ ਸ਼ੁਕਰਾਨਾ ਅਦਾ ਕੀਤਾ ਅਤੇ ਦੱਸਿਆ ਕਿ ਇਸ ਕਮਜ਼ੋਰੀ ਨੂੰ ਮਈ 2025 ਵਿੱਚ ਹੀ ਠੀਕ ਕਰ ਦਿੱਤਾ ਗਿਆ ਸੀ। Microsoft ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ ਕਿਸੇ ਵੀ ਗਾਹਕ ਨੂੰ ਇਸਦਾ ਅਸਲੀ ਨੁਕਸਾਨ ਨਹੀਂ ਹੋਇਆ ਅਤੇ ਉਨ੍ਹਾਂ ਨੇ ਸਮੇਂ ਸਿਰ ਇਸ ਬੱਗ ਨੂੰ ਸਰਵਰ-ਸਾਈਡ ਤੋਂ ਪੈਚ ਕਰ ਦਿੱਤਾ।

Microsoft ਦੇ ਪ੍ਰਵਕਤਾ ਨੇ ਕਿਹਾ,

'ਅਸੀਂ ਤੁਰੰਤ ਕਾਰਵਾਈ ਕੀਤੀ ਅਤੇ ਕਿਸੇ ਵੀ ਗਾਹਕ ਨੂੰ ਕੋਈ ਖ਼ਤਰਾ ਨਹੀਂ ਹੋਇਆ। ਅਸੀਂ ਸੁਰੱਖਿਆ ਖੋਜਕਰਤਾਵਾਂ ਦੀ ਮਦਦ ਦੀ ਸ਼ਲਾਘਾ ਕਰਦੇ ਹਾਂ।'

ਮਾਹਿਰ ਕੀ ਕਹਿੰਦੇ ਹਨ?

  • AIM Security: 'EchoLeak ਇੱਕ ਚੇਤਾਵਨੀ ਹੈ ਕਿ AI ਸਿਸਟਮਸ ਵਿੱਚ ਵੀ ਉਹ ਸਾਰੀਆਂ ਕਮੀਆਂ ਹੋ ਸਕਦੀਆਂ ਹਨ ਜੋ ਕਿਸੇ ਪਰੰਪਰਾਗਤ ਐਪਲੀਕੇਸ਼ਨ ਵਿੱਚ ਹੁੰਦੀਆਂ ਹਨ – ਅਤੇ ਸ਼ਾਇਦ ਇਸ ਤੋਂ ਵੀ ਜ਼ਿਆਦਾ।'
  • AI Risk Analyst, ਮੁੰਬਈ: 'AI ਏਜੈਂਟਸ ਜਿਵੇਂ Copilot ਨੂੰ ਸੀਮਤ ਅਧਿਕਾਰ ਦੇਣ ਦੀ ਜ਼ਰੂਰਤ ਹੈ। ਹਰ ਵਾਰ ਡਾਟਾ ਤੱਕ ਪਹੁੰਚ ਦੀ ਇਜਾਜ਼ਤ ਦੇਣਾ ਹੁਣ ਬਹੁਤ ਜੋਖਮ ਭਰਿਆ ਹੈ।'

ਕਿਵੇਂ ਬਚਾਅ ਸੰਭਵ ਹੈ?

1. Copilot ਦੀਆਂ ਐਕਸੈਸ ਸੀਮਾਵਾਂ ਤੈਅ ਕਰੋ

OneDrive, Outlook ਜਾਂ Teams ਜਿਹੀਆਂ ਸਰਵਿਸ ਤੋਂ ਆਟੋਮੈਟਿਕ ਡਾਟਾ ਐਕਸੈਸ ਨੂੰ ਲਿਮਟ ਕਰੋ।

2. AI ਚੈਟਬੋਟ ਦੇ ਵਿਵਹਾਰ ਦੀ ਨਿਗਰਾਨੀ ਕਰੋ

ਲੌਗਿੰਗ ਅਤੇ ਮੌਨੀਟਰਿੰਗ ਨਾਲ ਪਤਾ ਲਗਾਓ ਕਿ ਚੈਟਬੋਟ ਕਿਸ ਕਿਸਮ ਦੇ ਅਨੁਰੋਧਾਂ ਨੂੰ ਪ੍ਰੋਸੈਸ ਕਰ ਰਿਹਾ ਹੈ।

3. ਈਮੇਲ ਫਾਰਮੈਟਿੰਗ ਸੁਰੱਖਿਆ ਵਧਾਓ

Markdown, alt-text ਜਾਂ embedded code ਜਿਹੇ ਇਨਪੁਟ ਨੂੰ Chatbot ਇੰਟਰਫੇਸ ਵਿੱਚ ਫਿਲਟਰ ਕੀਤਾ ਜਾਵੇ।

4. ਨਿਯਮਤ ਅਪਡੇਟ ਅਤੇ ਪੈਚਿੰਗ

Microsoft ਜਿਹੇ ਪਲੇਟਫਾਰਮਸ ਦੁਆਰਾ ਜਾਰੀ ਸਾਰੇ ਸੁਰੱਖਿਆ ਅਪਡੇਟ ਨੂੰ ਤੁਰੰਤ ਲਾਗੂ ਕਰੋ।

Leave a comment