Trí tuệ nhân tạo giúp người đã khuất trở thành “nhân chứng sống” trong phiên tòa
Lần đầu tiên trong lịch sử, trí tuệ nhân tạo được sử dụng để tái hiện hình ảnh và giọng nói nạn nhân tại tòa án.
Khi trí tuệ nhân tạo bước vào phòng xử án
Một phiên tòa tại Mỹ vừa đi vào lịch sử không chỉ bởi bản án được tuyên, mà còn vì lần đầu tiên trí tuệ nhân tạo (AI) được sử dụng để tái hiện hình ảnh và giọng nói của nạn nhân ngay tại phiên tuyên án.
Ngày 1/5/2025, tại Tòa án Hạt Maricopa, Arizona, gia đình nạn nhân Christopher Pelkey đã gây chấn động khi trình chiếu một đoạn video, trong đó Pelkey – người đã khuất như đang thực sự hiện diện, cất lời xin tha thứ cho kẻ sát hại mình.

Công nghệ phục dựng hình ảnh bằng AI vốn đã quen thuộc trong các lĩnh vực như phim ảnh, truyền thông hay quảng cáo, nhưng lần đầu tiên nó được sử dụng như một bằng chứng trong tòa án.
Gia đình Pelkey, cụ thể là chị gái Stacey Wales và chồng – một chuyên gia công nghệ đã dành hai năm để chuẩn bị cho khoảnh khắc này. Họ sử dụng ảnh, video và giọng nói cũ của Pelkey, huấn luyện các nền tảng AI để tạo nên một đoạn video chân thực, tái hiện hình ảnh em trai trong trang phục đời thường, nhẹ nhàng nói:
"Trong một cuộc đời khác, có lẽ chúng ta đã có thể làm bạn."
Đoạn video kết thúc trong sự lặng im đầy cảm xúc của cả phòng xử án.
Thẩm phán Todd Lang, người chủ trì phiên tòa, không giấu được xúc động: "Tôi rất thích AI này. Tôi đã nghe được sự tha thứ." Ông đã quyết định tuyên án bị cáo Gabriel Paul Horcasitas 10,5 năm tù, cao hơn 1 năm so với mức đề nghị của công tố viên.
Sự đột phá công nghệ hay lằn ranh đạo đức?
Ngay sau phiên tòa, tranh cãi nổ ra dữ dội. Những người ủng hộ cho rằng, công nghệ này giúp nạn nhân có “tiếng nói” cuối cùng, mang lại giá trị nhân văn và lan tỏa tinh thần tha thứ. Trong khi đó, phe phản đối khẳng định video AI có thể tác động mạnh mẽ đến cảm xúc, làm lệch cán cân công lý, khiến phán quyết chịu ảnh hưởng bởi yếu tố tâm lý thay vì dựa hoàn toàn vào bằng chứng pháp lý.
Luật sư bào chữa cho Horcasitas đã lập tức nộp đơn kháng cáo, khẳng định việc sử dụng video AI mà không thông báo trước là một hành vi tạo “lợi thế không công bằng”, phá vỡ nguyên tắc xét xử công bằng.
Câu hỏi được đặt ra: Liệu những hình ảnh được tạo ra bởi trí tuệ nhân tạo có thể xem là bằng chứng hợp pháp? Và nếu có, đâu là giới hạn để ngăn chặn việc lạm dụng công nghệ này trong các phiên xét xử tương lai?
Trí tuệ nhân tạo: Công cụ hỗ trợ hay "người tham gia" phiên tòa?
Không thể phủ nhận, AI đang từng bước len lỏi vào mọi lĩnh vực của đời sống, bao gồm cả pháp luật. Tại Mỹ và nhiều quốc gia phát triển, các ứng dụng AI đã được sử dụng để phân tích hồ sơ vụ án, hỗ trợ tra cứu luật và thậm chí dự đoán rủi ro tái phạm.
Nhưng khi AI không chỉ là công cụ mà trở thành “người tham gia” phiên tòa với vai trò đại diện tiếng nói của người đã khuất, các chuẩn mực đạo đức, pháp lý rõ ràng phải được xem xét kỹ lưỡng.
Các chuyên gia pháp lý cảnh báo, việc sử dụng AI trong tòa án mà không có khung pháp lý chặt chẽ có thể tạo ra tiền lệ nguy hiểm. Liệu có ai đảm bảo rằng những đoạn video tương tự trong tương lai sẽ phản ánh đúng ý chí của nạn nhân hay chỉ là sản phẩm mang tính chủ quan, thậm chí bị thao túng bởi người tạo ra?