Trang

Chủ Nhật, 27 tháng 3, 2016

1140. Tạo được robot thì chuyển hóa nó được...Đó là TẠO HÓA.

Việc các nhà bác học tạo được robot và chỉnh sửa nó khỏi những thói hư tật xấu giúp cho ta hiểu thêm ý nghĩa của chữ tạo hóa...tạo hóa bao giờ cũng hàm ý chuyển từ cái xấu sang cái tốt...  Làm cho việc tốt thành xấu là tạo hoại là kế hoạch của sa tăng. Tạo đời cải dữ ra hiền.... là kế hoạch của Đấng tạo hóa.
BBT Blog
Robot nói bậy bị Microsoft bắt ngưng hoạt động.
26/03/2016.
VOA
Một robot với trí thông minh nhân tạo có khả năng trò chuyện đã nhanh chóng học được những thói xấu nhất của con người.
Robot tên Tay của Microsoft bị đưa khỏi Internet chưa đầy 24 giờ sau khi ra mắt vì nó xổ ra thứ ngôn ngữ mang tính kì thị chủng tộc và phân biệt giới tính.


Tài khoản Twitter của robot Tay.
Tay, theo Microsoft, là một nỗ lực để giao tiếp với thanh niên từ 18-24 tuổi. "Bạn nói chuyện càng nhiều với Tay thì nó sẽ càng thông minh, vì vậy trải nghiệm có thể mang tính cá nhân hoá nhiều hơn cho bạn," theo một bài viết gần đây của Microsoft.
Ý tưởng là robot này sẽ đưa ra những lời đáp hài hước dựa trên những dòng tin Twitter và những thông điệp khác mà nó nhận được thông qua ứng dụng Kik và GroupMe.
Nhưng nhiều người chọc phá bắt đầu giao tiếp với Tay hôm thứ Tư gần như ngay sau khi nó được ra mắt, và nó bắt đầu đưa ra những phát biểu mang tính kì thị chủng tộc trong những cuộc trò chuyện của chính mình.
Những dòng tin Twitter của nó có nội dung tiêu cực đến mức một tờ báo gọi Tay là "robot tình dục mê Hitler."
Nhà khoa học máy tính Kris Hammond nói với hãng tin AP: "Tôi không thể tin là họ đã không lường trước điều này."
"Mọi người cứ nói rằng Tay học được cái này cái nọ và nó thành ra kì thị chủng tộc," ông Hammond nói thêm. "Nhưng không phải." Chương trình này rất có thể phản ánh những thứ được nói với nó, có lẽ nhiều hơn một lần, bởi những người quyết định xem chuyện gì sẽ xảy ra, ông nói.
Tay phát biểu trên Twitter khoảng 96.000 lần trước khi Microsoft gỡ nó xuống.
"Thật không may, trong vòng 24 giờ đầu tiên lên mạng, chúng tôi nhận thức được một nỗ lực có phối hợp của một số người lạm dụng kỹ năng bình luận của Tay để bắt Tay hồi đáp theo những cách không thích hợp," Microsoft cho biết trong một thông cáo.
Theo AP, Microsoft cho biết họ đang "điều chỉnh" Tay, nhưng không thể nói khi nào hoặc liệu nó có quay trở lại hay không. Hầu hết những dòng tin Twitter của nó đã bị xóa đến hôm thứ Năm.

Dòng tin cuối cùng của nó là, "c u soon humans need sleep now so many conversations today thx" (Tạm dịch: Gặp lại sau con người giờ phải đi ngủ hôm nay trò chuyện nhiều quá cảm ơn).