Việc các nhà bác học tạo được robot và chỉnh sửa nó khỏi những thói hư tật xấu giúp cho ta hiểu thêm ý nghĩa của chữ tạo hóa...tạo hóa bao giờ cũng hàm ý chuyển từ cái xấu sang cái tốt... Làm cho việc tốt thành xấu là tạo hoại là kế hoạch của sa tăng. Tạo đời cải dữ ra hiền.... là kế hoạch của Đấng tạo hóa.
BBT Blog
Robot nói bậy bị
Microsoft bắt ngưng hoạt động.
26/03/2016.
VOA
Một
robot với trí thông minh nhân tạo có khả năng trò chuyện đã nhanh chóng học
được những thói xấu nhất của con người.
Robot
tên Tay của Microsoft bị đưa khỏi Internet chưa đầy 24 giờ sau khi ra mắt vì nó
xổ ra thứ ngôn ngữ mang tính kì thị chủng tộc và phân biệt giới tính.
Tài
khoản Twitter của robot Tay.
Tay,
theo Microsoft, là một nỗ lực để giao tiếp với thanh niên từ 18-24 tuổi.
"Bạn nói chuyện càng nhiều với Tay thì nó sẽ càng thông minh, vì vậy trải
nghiệm có thể mang tính cá nhân hoá nhiều hơn cho bạn," theo một bài viết
gần đây của Microsoft.
Ý
tưởng là robot này sẽ đưa ra những lời đáp hài hước dựa trên những dòng tin
Twitter và những thông điệp khác mà nó nhận được thông qua ứng dụng Kik và
GroupMe.
Nhưng
nhiều người chọc phá bắt đầu giao tiếp với Tay hôm thứ Tư gần như ngay sau khi
nó được ra mắt, và nó bắt đầu đưa ra những phát biểu mang tính kì thị chủng tộc
trong những cuộc trò chuyện của chính mình.
Những
dòng tin Twitter của nó có nội dung tiêu cực đến mức một tờ báo gọi Tay là
"robot tình dục mê Hitler."
Nhà
khoa học máy tính Kris Hammond nói với hãng tin AP: "Tôi không thể tin là
họ đã không lường trước điều này."
"Mọi
người cứ nói rằng Tay học được cái này cái nọ và nó thành ra kì thị chủng
tộc," ông Hammond nói thêm. "Nhưng không phải." Chương trình này
rất có thể phản ánh những thứ được nói với nó, có lẽ nhiều hơn một lần, bởi
những người quyết định xem chuyện gì sẽ xảy ra, ông nói.
Tay
phát biểu trên Twitter khoảng 96.000 lần trước khi Microsoft gỡ nó xuống.
"Thật
không may, trong vòng 24 giờ đầu tiên lên mạng, chúng tôi nhận thức được một nỗ
lực có phối hợp của một số người lạm dụng kỹ năng bình luận của Tay để bắt Tay
hồi đáp theo những cách không thích hợp," Microsoft cho biết trong một
thông cáo.
Theo
AP, Microsoft cho biết họ đang "điều chỉnh" Tay, nhưng không thể nói
khi nào hoặc liệu nó có quay trở lại hay không. Hầu hết những dòng tin Twitter
của nó đã bị xóa đến hôm thứ Năm.
Dòng
tin cuối cùng của nó là, "c u soon humans need sleep now so many
conversations today thx" (Tạm dịch: Gặp lại sau con người giờ phải đi ngủ
hôm nay trò chuyện nhiều quá cảm ơn).