ChatGPT vượt qua kỳ thi luật nhưng lại trượt kì thi PSLE về toán học và Khoa học
Thật là trớ trêu khi bản tin của CNN gần đây cho biết ChatGPT đã vượt qua các kỳ thi Luật tại Đại học Minnesota, và rồi sau đó vào tuần trước, Straits Times lại đưa tin là ChatGPT bất ngờ không vượt qua được kì thi PSLE (Kỳ thi tốt nghiệp tiểu học) của Singapore với bộ môn Toán học và Khoa học.
Đối với những người vẫn còn đang mơ hồ với những thông tin gần đây, ChatGPT được tung hô như là tiêu chuẩn vàng của tất cả các chatbot chính thống hiện nay. Nó là phần mềm có sức hút lớn nhất trong tất cả các ứng dụng của trí tuệ nhân tạo tổng quát/hội thoại, đã thu hút sự chú ý của thế giới kể từ khi ra mắt vào tháng mười một năm ngoái. (Một điều bạn cần biết đó là Chat GPT được phát minh bởi công ty OpenAI và được xây dựng trên họ mô hình ngôn ngữ lớn GPT-3 của OpenAI.)
Một con dao hai lưỡi
Tôi hoàn toàn ủng hộ những sự đột phá và phát triển trong công nghệ, nhưng có một sự thật là không phải tất cả những thứ hào nhoáng đều có sẽ hoàn toàn có lợi, và đây chính là cách mà tôi nhìn nhận về ChatGPT ở thời điểm hiện tại. Chat GPT là một hiện tượng gây bão trên toàn thế giới không có nghĩa là nó sẽ mang lại nhiều lợi ích hơn là nhược điểm về lâu dài.
Trên thực tế, một người bạn của tôi đã hỏi ChatGPT rằng nó nghĩ gì về chính bản thân mình và nó đã đưa ra một câu trả lời trung thực một cách đáng ngạc nhiên.
Giả định rằng: “Điều gì sẽ xảy ra khi hầu hết các dữ liệu và thông tin đều được tạo ra bởi ChatGPT?”
“Về mặt tích cực, nội dung do AI tạo ra có thể giúp chúng ta hoàn thành rất nhiều công việc nhanh chóng và hiệu quả hơn. Nó cũng có thể giúp cho việc truy cập thông tin nhanh chóng và dễ dàng về một loạt các chủ đề, từ thông tin kỹ thuật đến các loại kiến thức thường thức đời sống.
Về mặt tiêu cực, việc phụ thuộc quá nhiều vào nội dung do AI tạo ra có thể dẫn đến tình trạng con người dần thiếu tư duy phản biện và sự sáng tạo. Mọi người có thể trở nên quá phụ thuộc vào thông tin do AI tạo ra và sẽ thôi đặt ra câu hỏi, chất vấn về một vấn đề. Ngoài ra, nếu nội dung do AI tạo ra không được quản lý, hay không được giám sát một cách hợp lý thì có thể dẫn đến người dùng tiếp cận những thông tin sai lệch, và lan truyền thông tin mang tính chủ quan.
Đơn giản vậy thôi, ít nhất thì Chat GPT cũng đã trung thực. Bây giờ tôi sẽ chia sẻ ba mối quan tâm hàng đầu của mình về trí tuệ nhân tạo và GPT
#1 Đánh đổi quyền riêng tư của bạn
Thí dụ về việc tạo ra các văn bản pháp lý, đây rõ ràng là một vấn đề rất nghiêm trọng. Cá nhân tôi tương tác thường xuyên với rất nhiều luật sư hiện đang để mắt đến việc ứng dụng AI trong lĩnh vực pháp luật. Ví dụ: một luật sư có thể để tâm đến việc sử dụng ChatGPT để soạn thảo, kiểm tra hoặc sửa đổi các điều khoản trong hợp đồng.
Mặc dù luật sư sử dụng phần mềm trí tuệ nhân tạo này có thể không nhận ra, nhưng bất kỳ một phần nào của hợp đồng, một khi đã được đặt vào câu lệnh trên ChatGPT, đều có khả năng bị ứng dụng này lưu trữ vào bộ nhớ. Nó sẽ trở thành một nguồn dữ liệu được các thuật toán trong trí tuệ nhân tạo tiếp nhận. Trong trường hợp các thông tin bảo mật được đưa vào bản ghi, có khả năng cao các thông tin này cũng sẽ được Chat GPT lưu trữ.
Do đó, khi đang hào hứng với những lợi ích trong việc giải quyết các công việc một cách nhanh chóng hơn mà bạn có thể vô tình làm lộ những thông tin yêu cầu bảo mật. Hơn thế nữa, bạn không hề ý thức được về thông tin mà minh đã tiết lộ. Không có bất kỳ cảnh báo, không có bất kỳ một dấu hiệu nào cho thấy điều đó sẽ xảy ra.
#2 Sự tụt hậu về tư duy phản biện của bạn và thủ đoạn tinh vi bên trong những thông tin sai lệch
Khi bạn tìm kiếm thứ gì đó trên Google, bạn sẽ được đưa đến trang kết quả với nhiều liên kết từ nhiều nguồn khác nhau. Để truy cập vào một trang web, bạn có xu hướng đánh giá dựa trên nhiều yếu tố bao gồm mức độ liên quan, độ tin cậy hoặc độ uy tín của nguồn về vấn đề này. Tuy nhiên, với ChatGPT, chúng ta đặt câu hỏi và nhận được những đoạn văn cung cấp câu trả lời, câu trả lời này có thể đúng hoặc không, dù hiển nhiên rằng nó sẽ coi rằng đó chính là sự thật.
Theo quan điểm của tôi, ít nhất là các công cụ tìm kiếm đã giúp người dùng có thể xem xét câu trả lời bằng một vài cú nhấp chuột. Đâu là sự hỗ trợ kể trên của các nền tảng đang phát triền này? Các đoạn văn được hình thành từ các ứng dụng trí tuệ nhân tạo có thể chứa nhiều thông tin sai lệch hoặc thậm chí là che đậy sự thật một cách trắng trợn. Không có một dấu hiệu cảnh báo nào, làm sao bạn có thể nhận biết được?
#3 Một sự đồng lõa với tội phạm
Tất cả chúng ta đều thấy điều sắp xảy ra. Business Insider đã viết một bài báo với tiêu đề: “Không chỉ bạn: Tội phạm mạng cũng đang sử dụng ChatGPT để làm cho công việc của họ dễ dàng hơn”. Điều này rất đáng lo ngại, chatbot có thể tư vấn cho tội phạm và giúp chúng có thể thực hiện hành vi phạm tội của mình hoàn hảo hơn, nhanh chóng hơn.
ChatGPT hiện đã và đang đẩy nhanh quá trình cho phép tạo các email lừa đảo có chủ đích hay tạo ra mã độc cho các cuộc tấn công bằng phần mềm độc hại. Câu hỏi đặt ra là làm thế nào để chúng ta buộc các bên phải chịu trách nhiệm? Nếu công nghệ trở thành đồng lõa với tội phạm, các công ty về trí tuệ nhân tạo có phải chịu trách nhiệm hình sự hay không?
Dù yêu hay ghét
Trước những câu hỏi đang được đặt ra này, có một nhu cầu cấp thiết trên toàn cầu để thiết lập một hành lang pháp lý cho các công ty công nghệ và trí tuệ nhân tạo cũng như các quy định điều chỉnh, chính sách và thủ tục tại địa phương. Đối với mỗi cá nhân, hơn bao giờ hết, chúng ta cần ưu tiên vận dụng tư duy phản biện (đừng phụ thuộc tất cả vào trí tuệ nhân tạo) hoặc cuộc sống của chúng ta sẽ chìm trong một mớ hỗn độn, dễ bị tổn thương hơn bất kỳ lúc nào do bị̣ thao túng bởi các thông tin sai lệch mà nó đưa ra.