4 sự thật khó chịu khi sử dụng ChatGPT
ChatGPT ngày càng được sử dụng rộng rãi, kéo theo đó là những điểm người dùng cần lưu ý để bảo vệ chính mình.

Kể từ cuối tháng 11/2022, OpenAI đã gây chú ý toàn cầu khi ra mắt ChatGPT, một chatbot sử dụng mô hình ngôn ngữ lớn để hiểu và phản hồi lại một cách tự nhiên như con người.
Việc tích hợp ChatGPT vào công việc, học tập và sinh hoạt thường ngày diễn ra khá tự nhiên. Tuy nhiên, bên cạnh sự tiện lợi, vẫn còn tồn tại những điểm cần được nhìn nhận một cách tỉnh táo.
ChatGPT có thể đưa ra thông tin không chính xác, có khả năng ghi nhận dữ liệu người dùng và mang theo những thiên lệch nhất định từ dữ liệu huấn luyện.
Ngoài ra, việc tương tác với chatbot trong thời gian dài cũng có thể dẫn đến những tác động tâm lý không dễ nhận ra ngay lập tức.
ChatGPT thường hay 'bịa' thông tin
Một trong những vấn đề được nhắc đến nhiều là hiện tượng ChatGPT “bịa” thông tin. Chatbot thường trả lời với giọng điệu dứt khoát và tự tin, nhưng điều đó không đồng nghĩa với độ chính xác tuyệt đối.
Các phản hồi của ChatGPT phụ thuộc vào dữ liệu đã được huấn luyện, kho dữ liệu này vốn có thể chứa thông tin lỗi thời hoặc thiên lệch. Đặc biệt, các mô hình miễn phí thường sẽ chậm cập nhật so với những diễn biến thực tế.
Bản thân OpenAI cũng thừa nhận rằng ChatGPT có thể cung cấp định nghĩa sai, thông tin không chính xác, thậm chí tạo ra trích dẫn hoặc nghiên cứu không có thật.

Vì vậy, người dùng được khuyến nghị luôn kiểm tra lại thông tin, dù việc truy nguồn đôi khi không hề dễ dàng.
Hiện tại, ChatGPT đang vận hành trên phiên bản 5.1 cho tất cả các gói người dùng, trong khi phiên bản 5.2 được kỳ vọng sẽ ra mắt trong thời gian tới. Điều này phản ánh áp lực liên tục phải cập nhật để theo kịp các đối thủ trong lĩnh vực trí tuệ nhân tạo.
ChatGPT không phải là con người, mặc dù nó có khả năng trò chuyện
Nhờ được thiết kế để giao tiếp tự nhiên, chatbot có thể khiến người dùng quên rằng mình đang trò chuyện với một hệ thống trí tuệ nhân tạo, chứ không phải một con người thật.
Trên thực tế, đã có những trường hợp người dùng hình thành mối gắn kết cảm xúc với chatbot, thậm chí sử dụng nó như một người bạn đồng hành hoặc đối tượng để chia sẻ chuyện riêng tư.
Thực tế, đây là một hiện tượng đang được nói đến khá nhiều trong năm nay, được gọi tên với thuật ngữ là “parasocial”. Thậm chí, từ khóa "parasocial" còn được bình chọn là Từ của năm 2025 để phản ánh mức độ được nhắc đến.
Mối quan hệ "parasocial" được định nghĩa là mối quan hệ một chiều khi một người cảm thấy thân thiết, thấu hiểu hoặc gắn bó với một nhân vật nổi tiếng, influencer, nhân vật hư cấu từ phim, hoạt hình, truyện hoặc thậm chí một chatbot.
Một trường hợp được ghi nhận trong năm nay liên quan đến một phụ nữ đã lập gia đình. Cô ấy đã sử dụng ChatGPT để bắt đầu một mối quan hệ ngoại tình ảo.

Những tình huống này cho thấy việc chatbot thể hiện ngôn ngữ giống con người có thể tạo cảm giác an toàn và không bị phán xét. Tuy nhiên, bản chất của hệ thống vẫn chỉ là một công cụ dự đoán và tạo phản hồi dựa trên dữ liệu đầu vào, chứ không có cảm xúc, ý thức hay sự thấu cảm như con người.
ChatGPT có giới hạn về bộ nhớ
ChatGPT cũng có những giới hạn rõ ràng về khả năng lưu trữ. Trong quá trình sử dụng, chatbot có thể lưu lại một số thông tin nhằm giúp cuộc trò chuyện trở nên mạch lạc và mang tính cá nhân hóa hơn.
Tuy vậy, dung lượng bộ nhớ này có giới hạn và không được OpenAI công bố chi tiết. Theo mô tả, ChatGPT chỉ có thể lưu trữ một lượng ngữ cảnh tương đương vài trang văn bản.

Không phải mọi thông tin người dùng cung cấp đều được lưu lại. Các dữ liệu mang tính ngắn hạn, riêng tư nhạy cảm hoặc có khả năng định danh cá nhân như số điện thoại, giấy tờ tùy thân hay khuynh hướng chính trị sẽ không được lưu trữ.
Thông tin có thể được ghi nhớ thường liên quan đến sở thích, bối cảnh cá nhân, các dự án dài hạn và thói quen sử dụng. Dữ liệu này được chia thành bộ nhớ theo cuộc trò chuyện và bộ nhớ lâu dài, trong đó bộ nhớ lâu dài chỉ được kích hoạt khi người dùng cho phép hoặc thiết lập sẵn.
ChatGPT không hoàn toàn bảo mật
OpenAI khuyến cáo người dùng không nên chia sẻ thông tin nhạy cảm như dữ liệu ngân hàng, thông tin công việc nội bộ hay các chi tiết có thể liên kết trực tiếp đến tài khoản cá nhân.
Theo chính sách quyền riêng tư của ChatGPT, nền tảng này có thể thu thập nhiều loại dữ liệu khác nhau, bao gồm thông tin tài khoản, nội dung người dùng nhập vào như câu lệnh và tệp tải lên, cũng như thông tin cá nhân được cung cấp trong quá trình trao đổi qua email, sự kiện hoặc khảo sát.

Các dữ liệu này được sử dụng cho mục đích vận hành, cải thiện dịch vụ và tuân thủ các yêu cầu pháp lý liên quan.
Những dữ liệu này được sử dụng để cải thiện dịch vụ, huấn luyện mô hình và đáp ứng các nghĩa vụ pháp lý. Tuy nhiên, chính sách cũng nêu rõ khả năng chia sẻ dữ liệu với bên thứ ba, bao gồm cơ quan nhà nước, trong những trường hợp nhất định.
Dù người dùng có thể chọn không cho phép sử dụng dữ liệu để huấn luyện, vẫn tồn tại khả năng dữ liệu được truy cập khi cần thiết cho các mục đích pháp lý hoặc điều tra vi phạm.
Tóm lại
Việc hiểu rõ những giới hạn và rủi ro này giúp người dùng tiếp cận ChatGPT một cách tỉnh táo hơn. Chatbot có thể là một công cụ hỗ trợ hữu ích, nhưng không nên được xem là nguồn thông tin tuyệt đối hay một đối tượng giao tiếp thay thế cho con người trong những vấn đề nhạy cảm.


