ਸਿਹਤ ਸੰਬੰਧੀ ਫੈਸਲੇ ਬਹੁਤ ਘੱਟ ਸਿੱਧੇ ਹੁੰਦੇ ਹਨ।
ਆਕਸਫੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੀ ਨਵੀਂ ਖੋਜ ਦੇ ਅਨੁਸਾਰ, ਡਾਕਟਰੀ ਸਲਾਹ ਲੈਣ ਲਈ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਚੈਟਬੋਟਸ ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਖ਼ਤਰਨਾਕ ਹੋ ਸਕਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਮਰੀਜ਼ਾਂ ਦੀ ਸੁਰੱਖਿਆ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਵਧਦੀਆਂ ਹਨ।
The ਦਾ ਅਧਿਐਨ ਨੇ ਪਾਇਆ ਕਿ ਡਾਕਟਰੀ ਫੈਸਲੇ ਲੈਣ ਲਈ AI 'ਤੇ ਨਿਰਭਰ ਕਰਨਾ ਸਪੱਸ਼ਟ ਜੋਖਮ ਪੇਸ਼ ਕਰਦਾ ਹੈ, ਮੁੱਖ ਤੌਰ 'ਤੇ ਚੈਟਬੋਟਸ ਦੁਆਰਾ ਸਾਂਝੀ ਕੀਤੀ ਗਈ ਗਲਤ ਅਤੇ ਅਸੰਗਤ ਜਾਣਕਾਰੀ ਦੇ ਕਾਰਨ।
ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ ਜਦੋਂ ਕਿ ਏਆਈ ਟੂਲ ਆਤਮਵਿਸ਼ਵਾਸੀ ਦਿਖਾਈ ਦਿੰਦੇ ਹਨ, ਉਹ ਅਕਸਰ ਭਰੋਸੇਯੋਗ ਮਾਰਗਦਰਸ਼ਨ ਪ੍ਰਦਾਨ ਕਰਨ ਵਿੱਚ ਅਸਫਲ ਰਹਿੰਦੇ ਹਨ ਜਦੋਂ ਲੋਕ ਅਸਲ ਸਿਹਤ ਲੱਛਣਾਂ ਲਈ ਮਦਦ ਲੈਂਦੇ ਹਨ।
ਇਹ ਖੋਜ ਆਕਸਫੋਰਡ ਇੰਟਰਨੈੱਟ ਇੰਸਟੀਚਿਊਟ ਅਤੇ ਆਕਸਫੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਨਫੀਲਡ ਡਿਪਾਰਟਮੈਂਟ ਆਫ਼ ਪ੍ਰਾਇਮਰੀ ਕੇਅਰ ਹੈਲਥ ਸਾਇੰਸਿਜ਼ ਦੇ ਮਾਹਿਰਾਂ ਦੁਆਰਾ ਕੀਤੀ ਗਈ ਸੀ।
ਡਾ. ਰੇਬੇਕਾ ਪੇਨ, ਇੱਕ ਜੀਪੀ ਅਤੇ ਅਧਿਐਨ ਦੇ ਸਹਿ-ਲੇਖਕ, ਨੇ ਕਿਹਾ ਕਿ ਇਹ ਨਤੀਜੇ ਏਆਈ-ਸੰਚਾਲਿਤ ਸਿਹਤ ਸਲਾਹ ਵਿੱਚ ਵਧ ਰਹੇ ਜਨਤਕ ਵਿਸ਼ਵਾਸ ਨੂੰ ਚੁਣੌਤੀ ਦਿੰਦੇ ਹਨ।
ਉਸਨੇ ਸਮਝਾਇਆ ਕਿ, ਵਿਆਪਕ ਪ੍ਰਚਾਰ ਦੇ ਬਾਵਜੂਦ, ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਕਲੀਨਿਕਲ ਫੈਸਲੇ ਲੈਣ ਵਿੱਚ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਡਾਕਟਰੀ ਪੇਸ਼ੇਵਰਾਂ ਦੀ ਥਾਂ ਲੈਣ ਲਈ ਤਿਆਰ ਨਹੀਂ ਹੈ।
ਡਾ. ਪੇਨ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ ਮਰੀਜ਼ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ਨੂੰ ਲੱਛਣਾਂ ਬਾਰੇ ਪੁੱਛਦੇ ਹਨ ਗਲਤ ਨਿਦਾਨ ਹੋਣ ਦਾ ਜੋਖਮ ਅਤੇ ਅਜਿਹੇ ਲੱਛਣ ਨਾ ਹੋਣ ਜੋ ਇਹ ਦਰਸਾਉਂਦੇ ਹੋਣ ਕਿ ਤੁਰੰਤ ਡਾਕਟਰੀ ਸਹਾਇਤਾ ਦੀ ਲੋੜ ਹੈ।
ਅਧਿਐਨ ਨੇ ਇਹ ਜਾਂਚ ਕੀਤੀ ਕਿ ਸਿਹਤ ਨਾਲ ਸਬੰਧਤ ਫੈਸਲਿਆਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨ ਵੇਲੇ ਲੋਕ ਏਆਈ ਨਾਲ ਕਿਵੇਂ ਗੱਲਬਾਤ ਕਰਦੇ ਹਨ, ਸਿਧਾਂਤਕ ਗਿਆਨ ਅਤੇ ਅਸਲ-ਸੰਸਾਰ ਦੇਖਭਾਲ ਵਿਚਕਾਰ ਪਾੜੇ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹੋਏ।
ਲਗਭਗ 1,300 ਭਾਗੀਦਾਰਾਂ ਨੂੰ ਸੰਭਾਵਿਤ ਸਿਹਤ ਸਥਿਤੀਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਵੱਖ-ਵੱਖ ਡਾਕਟਰੀ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ ਢੁਕਵੀਂ ਕਾਰਵਾਈਆਂ ਬਾਰੇ ਫੈਸਲਾ ਲੈਣ ਲਈ ਕਿਹਾ ਗਿਆ।
ਕੁਝ ਭਾਗੀਦਾਰਾਂ ਨੇ ਸੰਭਾਵੀ ਨਿਦਾਨ ਅਤੇ ਸਲਾਹ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ ਚੈਟਬੋਟਸ ਦੀ ਵਰਤੋਂ ਕੀਤੀ, ਜਦੋਂ ਕਿ ਦੂਸਰੇ ਰਵਾਇਤੀ ਤਰੀਕਿਆਂ ਦੀ ਪਾਲਣਾ ਕਰਦੇ ਸਨ, ਜਿਸ ਵਿੱਚ ਇੱਕ ਜੀਪੀ ਨਾਲ ਸਲਾਹ ਕਰਨਾ ਸ਼ਾਮਲ ਸੀ।
ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਫਿਰ ਲਏ ਗਏ ਫੈਸਲਿਆਂ ਦੀ ਗੁਣਵੱਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕੀਤਾ, ਸ਼ੁੱਧਤਾ, ਸੁਰੱਖਿਆ, ਅਤੇ ਕੀ ਉਪਭੋਗਤਾਵਾਂ ਨੇ ਪਛਾਣਿਆ ਕਿ ਕਦੋਂ ਜ਼ਰੂਰੀ ਦੇਖਭਾਲ ਦੀ ਲੋੜ ਸੀ।
ਨਤੀਜਿਆਂ ਤੋਂ ਪਤਾ ਲੱਗਾ ਕਿ ਏਆਈ ਸਿਸਟਮ ਅਕਸਰ ਮਦਦਗਾਰ ਅਤੇ ਨੁਕਸਾਨਦੇਹ ਜਾਣਕਾਰੀ ਦਾ ਮਿਸ਼ਰਣ ਪ੍ਰਦਾਨ ਕਰਦੇ ਸਨ, ਜਿਸਨੂੰ ਬਹੁਤ ਸਾਰੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਵੱਖ ਕਰਨ ਜਾਂ ਸਵਾਲ ਕਰਨ ਲਈ ਸੰਘਰਸ਼ ਕਰਨਾ ਪੈਂਦਾ ਸੀ।
ਜਦੋਂ ਸਹੀ ਵੇਰਵੇ ਸ਼ਾਮਲ ਕੀਤੇ ਗਏ ਸਨ, ਤਾਂ ਵੀ ਗੁੰਮਰਾਹਕੁੰਨ ਸੁਝਾਅ ਅਕਸਰ ਉਨ੍ਹਾਂ ਦੇ ਨਾਲ ਦਿਖਾਈ ਦਿੰਦੇ ਸਨ, ਜਿਸ ਨਾਲ ਮਰੀਜ਼ਾਂ ਲਈ ਸਪੱਸ਼ਟਤਾ ਦੀ ਬਜਾਏ ਉਲਝਣ ਪੈਦਾ ਹੁੰਦੀ ਸੀ।
ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਨੋਟ ਕੀਤਾ ਕਿ ਜਦੋਂ ਕਿ ਏਆਈ ਚੈਟਬੋਟ ਮਿਆਰੀ ਡਾਕਟਰੀ ਗਿਆਨ ਟੈਸਟਾਂ ਵਿੱਚ ਵਧੀਆ ਪ੍ਰਦਰਸ਼ਨ ਕਰਦੇ ਹਨ, ਅਸਲ-ਸੰਸਾਰ ਦੀ ਵਰਤੋਂ ਇੱਕ ਵੱਖਰੀ ਕਹਾਣੀ ਦੱਸਦੀ ਹੈ।
ਉਨ੍ਹਾਂ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ ਨਿੱਜੀ ਸਿਹਤ ਚਿੰਤਾਵਾਂ 'ਤੇ ਸਿੱਧੇ ਤੌਰ 'ਤੇ AI ਲਾਗੂ ਕਰਨ ਨਾਲ ਭਰੋਸਾ ਜਾਂ ਮਾਰਗਦਰਸ਼ਨ ਦੀ ਮੰਗ ਕਰਨ ਵਾਲੇ ਵਿਅਕਤੀਆਂ ਲਈ ਗੰਭੀਰ ਜੋਖਮ ਪੈਦਾ ਹੋ ਸਕਦੇ ਹਨ।
ਅਧਿਐਨ ਨੇ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਡਾਕਟਰੀ ਸਲਾਹ ਲਈ ਨਿਰਣੇ, ਸੰਦਰਭ ਅਤੇ ਮਨੁੱਖੀ ਆਪਸੀ ਤਾਲਮੇਲ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ, ਉਹ ਖੇਤਰ ਜਿੱਥੇ AI ਅਜੇ ਵੀ ਘੱਟ ਹੈ।
ਡਾ: ਪੇਨ ਨੇ ਕਿਹਾ ਕਿ ਇਹ ਖੋਜਾਂ ਏਆਈ ਪ੍ਰਣਾਲੀਆਂ ਨੂੰ ਬਣਾਉਣ ਦੀ ਮੁਸ਼ਕਲ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀਆਂ ਹਨ ਜੋ ਸਿਹਤ ਸੰਭਾਲ ਵਰਗੇ ਸੰਵੇਦਨਸ਼ੀਲ, ਉੱਚ-ਦਾਅ ਵਾਲੇ ਖੇਤਰਾਂ ਵਿੱਚ ਲੋਕਾਂ ਦੀ ਸੱਚਮੁੱਚ ਸਹਾਇਤਾ ਕਰ ਸਕਦੀਆਂ ਹਨ।
ਉਸਨੇ ਅੱਗੇ ਕਿਹਾ ਕਿ ਸਿਹਤ ਸੰਬੰਧੀ ਫੈਸਲੇ ਬਹੁਤ ਘੱਟ ਸਿੱਧੇ ਹੁੰਦੇ ਹਨ ਅਤੇ ਅਕਸਰ ਸੂਖਮਤਾ, ਜ਼ਰੂਰੀਤਾ ਅਤੇ ਭਾਵਨਾਤਮਕ ਸੰਕੇਤਾਂ ਨੂੰ ਪਛਾਣਨ 'ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਹਨ।
ਅਧਿਐਨ ਦੇ ਮੁੱਖ ਲੇਖਕ, ਆਕਸਫੋਰਡ ਇੰਟਰਨੈੱਟ ਇੰਸਟੀਚਿਊਟ ਤੋਂ ਐਂਡਰਿਊ ਬੀਨ ਨੇ ਕਿਹਾ ਕਿ ਉੱਚ ਪ੍ਰਦਰਸ਼ਨ ਕਰਨ ਵਾਲੇ ਏਆਈ ਮਾਡਲਾਂ ਨੂੰ ਵੀ ਮਨੁੱਖਾਂ ਨਾਲ ਗੱਲਬਾਤ ਕਰਨ ਵਿੱਚ ਮੁਸ਼ਕਲ ਆਉਂਦੀ ਹੈ।
ਉਸਨੇ ਸਮਝਾਇਆ ਕਿ ਇਹ ਸਮਝਣਾ ਕਿ ਲੋਕ ਲੱਛਣਾਂ, ਭਾਵਨਾਵਾਂ ਅਤੇ ਅਨਿਸ਼ਚਿਤਤਾ ਦਾ ਵਰਣਨ ਕਿਵੇਂ ਕਰਦੇ ਹਨ, ਮੌਜੂਦਾ ਏਆਈ ਪ੍ਰਣਾਲੀਆਂ ਲਈ ਇੱਕ ਵੱਡੀ ਚੁਣੌਤੀ ਬਣੀ ਹੋਈ ਹੈ।
ਬੀਨ ਨੇ ਕਿਹਾ ਕਿ ਖੋਜ ਦਾ ਉਦੇਸ਼ ਸੁਰੱਖਿਅਤ ਅਤੇ ਵਧੇਰੇ ਜ਼ਿੰਮੇਵਾਰ ਏਆਈ ਟੂਲਸ ਦੇ ਵਿਕਾਸ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ ਹੈ।
ਦੱਖਣੀ ਏਸ਼ੀਆਈ ਭਾਈਚਾਰਿਆਂ ਲਈ, ਜਿੱਥੇ ਪਹੁੰਚ ਦੀਆਂ ਰੁਕਾਵਟਾਂ, ਭਾਸ਼ਾਈ ਅੰਤਰ, ਅਤੇ ਸੱਭਿਆਚਾਰਕ ਕਲੰਕ ਪਹਿਲਾਂ ਹੀ ਸਿਹਤ ਸੰਭਾਲ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰ ਰਿਹਾ ਹੈ, ਇਹ ਜੋਖਮ ਹੋਰ ਵੀ ਵੱਧ ਹੋ ਸਕਦੇ ਹਨ।
ਮਾਹਿਰਾਂ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਹੈ ਕਿ ਏਆਈ ਨੂੰ ਪੇਸ਼ੇਵਰ ਡਾਕਟਰੀ ਸਲਾਹ ਦੀ ਥਾਂ ਨਹੀਂ ਲੈਣੀ ਚਾਹੀਦੀ, ਖਾਸ ਕਰਕੇ ਉਨ੍ਹਾਂ ਭਾਈਚਾਰਿਆਂ ਲਈ ਜੋ ਪਹਿਲਾਂ ਹੀ ਗੁੰਝਲਦਾਰ ਸਿਹਤ ਅਸਮਾਨਤਾਵਾਂ ਨੂੰ ਨੈਵੀਗੇਟ ਕਰ ਰਹੇ ਹਨ।
ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਇਸ ਗੱਲ 'ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਏਆਈ ਅਜੇ ਵੀ ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ ਸਹਾਇਕ ਭੂਮਿਕਾ ਨਿਭਾ ਸਕਦੀ ਹੈ, ਪਰ ਸਿਰਫ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਪੇਸ਼ੇਵਰਾਂ ਅਤੇ ਸਖ਼ਤ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੇ ਨਾਲ।
ਉਨ੍ਹਾਂ ਮਰੀਜ਼ਾਂ ਨੂੰ ਚੈਟਬੋਟ ਸਲਾਹ ਨੂੰ ਸਾਵਧਾਨੀ ਨਾਲ ਲੈਣ ਅਤੇ ਲੱਛਣਾਂ ਜਾਂ ਸਿਹਤ ਸੰਬੰਧੀ ਚਿੰਤਾਵਾਂ ਦਾ ਅਨੁਭਵ ਹੋਣ 'ਤੇ ਯੋਗ ਡਾਕਟਰਾਂ ਤੋਂ ਮਦਦ ਲੈਣ ਦੀ ਅਪੀਲ ਕੀਤੀ।








