THEO DÒNG 247

ChatGPT không còn được phép đưa ra lời khuyên về y tế, pháp lý và tài chính

Thục Nhi 03/11/2025 16:23

Từ ngày 29/10/2025, ChatGPT không còn được phép đưa ra lời khuyên cụ thể liên quan đến y tế, pháp lý hoặc tài chính.

chatgpt thay đổi quy tắc hoạt động

Trong một thời gian dài, nhiều người từng xem ChatGPT như nhà tiên tri vạn năng - người có thể trả lời mọi vấn đề trong cuộc sống: từ việc xử lý một vết phát ban cho đến cách lập di chúc.

Nhưng kỷ nguyên đó đã sắp khép lại trước nguy cơ kiện tụng ngày càng tăng, các tập đoàn công nghệ buộc phải kéo phanh gấp.

Từ ngày 29/10/2025, OpenAI được cho là đã thay đổi quy tắc hoạt động của ChatGPT. Công cụ này không còn được phép đưa ra lời khuyên cụ thể liên quan đến y tế, pháp lý hoặc tài chính nữa.

Theo hãng tin NEXTA, ChatGPT giờ đây chỉ được xem như một công cụ giáo dục, không còn mang vai trò của cố vấn chuyên môn. Lý do được đưa ra rất rõ ràng: “Các nỗi lo về pháp lý và trách nhiệm nghề nghiệp đã buộc những công ty công nghệ phải siết chặt kiểm soát - họ không muốn phải đối mặt với hàng loạt vụ kiện.”

chatgpt-khong-con-dua-ra-loi-khuyen-ve-y-te-phap-ly-va-tai-chinh.png

Giờ đây, thay vì tư vấn trực tiếp, ChatGPT chỉ có thể giải thích nguyên lý, mô tả cơ chế chung và khuyến nghị người dùng tìm đến bác sĩ, luật sư hoặc chuyên gia tài chính.

Thay đổi này phản ánh một lỗ hỏng đáng sợ của ChatGPT: Câu trả lời dù sai nhưng lại được diễn đạt một cách rất thuyết phục và điều đó có thể gây hậu quả nghiêm trọng nếu người dùng xem AI như chuyên gia thật.

Ba vùng cấm mới: Sức khỏe - pháp luật - tiền bạc

Theo NEXTA, các quy định mới của OpenAI nêu rõ: ChatGPT không được nêu tên thuốc hay liều dùng, không được cung cấp mẫu đơn pháp lý, và không được gợi ý đầu tư hoặc khuyến nghị mua - bán cổ phiếu.

Đây là phản ứng trực tiếp trước lo ngại rằng việc sử dụng AI trong những lĩnh vực nhạy cảm này có thể dẫn đến hiểu lầm hoặc thiệt hại thật cho người dùng.

Thực tế, nhiều người từng thử tự chẩn đoán bệnh bằng ChatGPT. Các câu trả lời có thể dao động từ “mất nước nhẹ” đến “ung thư giai đoạn cuối”. Một ví dụ đơn giản: nếu người dùng nhập “Tôi có một khối u ở ngực”, AI có thể gợi ý khả năng ác tính, trong khi bác sĩ thật chỉ xác nhận đó là u mỡ lành tính.

Đây chính là lý do OpenAI siết chặt quy định: AI không thể khám bệnh, không thể chỉ định xét nghiệm và cũng không có bảo hiểm trách nhiệm nghề nghiệp như con người.

chatgpt.png

Tình huống tương tự cũng xảy ra trong lĩnh vực tâm lý. Một số người đã dùng ChatGPT để “trò chuyện trị liệu” khi buồn chán hay khủng hoảng. Nhưng ChatGPT không có kinh nghiệm sống, không đọc được ngôn ngữ cơ thể và không có khả năng đồng cảm thật sự.

Trong khi đó, một chuyên gia trị liệu được cấp phép phải tuân thủ những nguyên tắc đạo đức và có trách nhiệm pháp lý để bảo vệ thân chủ.

Ở mảng tài chính và pháp lý, ChatGPT vẫn có thể giải thích khái niệm như ETF, lãi kép, hay cách hoạt động của hợp đồng, nhưng không thể hiểu bối cảnh cá nhân như tình hình nợ, kế hoạch nghỉ hưu hay mức độ chấp nhận rủi ro của mỗi người.

Nếu dựa vào ChatGPT để đầu tư hoặc soạn di chúc, người dùng có thể gặp rủi ro lớn, bởi luật tài sản và quy định công chứng khác nhau giữa các bang và quốc gia.

Ngoài ra, việc nhập thông tin cá nhân như thu nhập, số tài khoản ngân hàng hay mã số an sinh xã hội vào ChatGPT cũng tiềm ẩn nguy cơ bảo mật. Dữ liệu này có thể được ghi lại trong quá trình huấn luyện mô hình, và người dùng không thể biết chính xác nó được lưu trữ ở đâu, ai có quyền truy cập.

AI không siêu phàm đến thế

Ngay cả ngoài ba lĩnh vực bị cấm, ChatGPT vẫn có những giới hạn rõ rệt.

Nếu chuông báo khí CO₂ trong nhà kêu vang, bạn không nên mở ChatGPT để hỏi có nguy hiểm không, mà cần rời khỏi nhà ngay. Một mô hình ngôn ngữ không thể ngửi thấy khí gas, không thể gọi cứu hộ, và không phản ứng trong thời gian thực. Nó chỉ nên được dùng để giải thích hoặc tham khảo sau khi sự việc đã xảy ra.

Tương tự, dù ChatGPT Search đã có khả năng tra cứu web từ cuối năm 2024, công cụ này không thể cập nhật liên tục. Mỗi lần muốn làm mới dữ liệu, người dùng phải nhập lại yêu cầu. Vì vậy, ChatGPT không phù hợp để theo dõi tin tức nóng hoặc biến động thị trường.

chatgpt-khong-con-duoc-phep.png

Một số người thậm chí từng dùng ChatGPT để đặt cược thể thao. Nhưng công cụ này thường nhầm lẫn dữ liệu, thống kê và chấn thương cầu thủ. Nếu có người thắng cược, đó đơn giản là may mắn, không phải nhờ dự đoán chính xác của AI.

Vấn đề đạo đức: Gian lận và sáng tạo

Một số người sử dụng ChatGPT cho mục đích gian lận học tập. Dù AI có thể giúp soạn bài nhanh, các công cụ phát hiện như Turnitin đã trở nên tinh vi hơn, và nhiều giảng viên có thể nhận ra giọng văn ChatGPT chỉ sau vài dòng cơ bản.

Người dùng có thể bị đình chỉ học và tự đánh mất cơ hội học thật. ChatGPT nên được dùng như người bạn hỗ trợ học tập, chứ không phải một người viết thuê giấu mặt.

Trong lĩnh vực sáng tạo, tranh cãi về việc AI có nên được dùng để làm nghệ thuật vẫn chưa dừng lại. Nhiều người cho rằng AI chỉ nên là công cụ hỗ trợ ý tưởng, không phải người sáng tác thay thế. ChatGPT có thể giúp gợi ý tiêu đề, mô tả hoặc tóm tắt, nhưng cảm xúc và trải nghiệm cá nhân vẫn là điều mà chỉ con người tạo ra được.

Tóm lại

Những thay đổi mới không chỉ là bản cập nhật kỹ thuật mà còn là sự thừa nhận công khai về giới hạn cố hữu của AI.

Trước áp lực từ pháp lý và xã hội, các tập đoàn công nghệ buộc phải hạ cấp ChatGPT từ vai trò “cố vấn” xuống thành công cụ giáo dục.

Từ việc chẩn đoán sai bệnh lý, tạo nhầm thông tin pháp lý cho đến khuyến nghị đầu tư sai lệch, rủi ro khi tin tưởng tuyệt đối vào AI là quá lớn.

Thông điệp cuối cùng rất rõ ràng: ChatGPT là công cụ hỗ trợ học hỏi và tra cứu, nhưng không thể thay thế chuyên môn, kinh nghiệm và đạo đức nghề nghiệp của con người.

Theo International Business Times
https://www.ibtimes.co.uk/chatgpt-admits-its-limit-new-rules-ban-specific-legal-health-money-tips-report-1751762
Copy Link
https://www.ibtimes.co.uk/chatgpt-admits-its-limit-new-rules-ban-specific-legal-health-money-tips-report-1751762
    Nổi bật
        Mới nhất
        ChatGPT không còn được phép đưa ra lời khuyên về y tế, pháp lý và tài chính
        • Mặc định
        POWERED BY ONECMS - A PRODUCT OF NEKO