ĐÁNH GIÁ NĂNG LỰC XỬ LÝ KIẾN THỨC PHÁP LUẬT THỰC ĐỊNH CỦA CÁC MÔ HÌNH TRÍ TUỆ NHÂN TẠO TẠO SINH: PHÂN TÍCH SO SÁNH DỰA TRÊN BÀI KIỂM TRA TRẮC NGHIỆM PHÁP LUẬT ĐẠI CƯƠNG
Tóm tắt
Nghiên cứu này nhằm đánh giá năng lực xử lý kiến thức pháp luật thực định của các mô hình trí tuệ nhân tạo tạo sinh, đồng thời xem xét tiềm năng ứng dụng của AI trong học tập và thực hành nghề luật. Phương pháp nghiên cứu sử dụng bài kiểm tra trắc nghiệm môn Pháp luật đại cương (PLĐC) để so sánh hiệu quả các mô hình ChatGPT, Grok, Gemini, Copilot, Deepseek và Notebook LLM. Kết quả cho thấy ChatGPT và DeepSeek đạt tỷ lệ trả lời đúng cao, trong khi Notebook LLM chỉ trả lời được rất ít câu dù được bổ sung giáo trình, cho thấy AI vẫn hạn chế khi đối mặt với các quy định chi tiết và tình huống pháp lý cụ thể. Nghiên cứu cho thấy rủi ro khi AI hoạt động thiếu giám sát, vì mô hình có thể cung cấp đáp án sai nhưng thuyết phục, dẫn đến lạm dụng trong tư vấn, học tập và thực hành nghề luật. Thực tiễn đã ghi nhận nhiều hậu quả nghiêm trọng từ việc sử dụng AI thiếu kiểm soát trong lĩnh vực pháp lý. Như vậy, AI là công cụ bổ trợ hữu ích nhưng không thể thay thế chuyên môn con người; việc tích hợp cần đi kèm giám sát chặt chẽ, tiêu chuẩn đạo đức, khung pháp lý và phương pháp đào tạo mới để đảm bảo hiệu quả, chính xác và an toàn pháp lý.