Tham gia ngay để kết nối giảng viên, học viên và chia sẻ tri thức cùng hàng nghìn thành viên khác!
Trong lịch sử pháp luật, chưa bao giờ một công nghệ lại thách thức toàn diện hệ thống khái niệm, lý thuyết và nguyên tắc nền tảng như trí tuệ nhân tạo tự sinh nội dung (Generative AI). Khi luật dân sự, hình sự, hành chính và thông tin – truyền thông đều được xây dựng dựa trên tiền đề rằng hành vi gây hại có thể quy trách nhiệm cho một cá nhân hay tổ chức nhất định, sự xuất hiện của các mô hình AI phi tuyến tính, khó dự đoán, hoạt động như “hộp đen” đã làm lung lay nền tảng của toàn bộ hệ thống phân bổ trách nhiệm truyền thống. AI không có ý chí, không có động cơ, không có năng lực nhận thức; nó chỉ là cỗ máy sản xuất xác suất. Nhưng tác động của nó lên xã hội – từ hình ảnh giả mạo, deepfake, tin sai lệch, đến lời khuyên pháp lý sai, chẩn đoán y tế ảo, thao túng dư luận – lại thực tế, trực tiếp và có sức ảnh hưởng vượt xa khả năng dự phóng của bất kỳ thiết chế pháp lý nào.
Tóm tắt
Trong quản trị nhân sự hiện đại, đánh giá hiệu suất giữ vai trò then chốt đối với phát triển cá nhân và sự vận hành của tổ chức. Tuy nhiên, quá trình này không phải lúc nào cũng phản ánh khách quan năng lực thật sự của nhân viên. Nhiều nghiên cứu hành vi cho thấy việc đánh giá thường bị chi phối bởi những dạng thành kiến nhận thức mà người đánh giá không nhận ra. Ba thiên kiến phổ biến nhất trong bối cảnh này là halo bias, leniency bias và strictness bias. Việc phân tích sâu ba thành kiến này mang lại góc nhìn toàn diện về những sai lệch vô thức trong đánh giá và giúp đề xuất những giải pháp nhằm nâng cao tính công bằng trong quản trị hiệu suất.Trang web này sử dụng cookie. Tiếp tục sử dụng trang web này đồng nghĩa với việc bạn đồng ý sử dụng cookie của chúng tôi.
Bạn có thể tiếp tục sau 60 giây...