Mối quan tâm về đạo đức của ChatGPT

ghi nhãn dữ liệu
Một cuộc điều tra của tạp chí TIME đã tiết lộ rằng để xây dựng một hệ thống an toàn chống lại nội dung độc hại (ví dụ: lạm dụng tình dục, bạo lực, phân biệt chủng tộc, phân biệt giới tính, v.v.), OpenAI đã sử dụng những công nhân Kenya thuê ngoài có thu nhập dưới 2 đô la mỗi giờ để gắn nhãn nội dung độc hại.Các nhãn này được sử dụng để đào tạo một mô hình phát hiện nội dung như vậy trong tương lai.Những người lao động thuê ngoài đã phải tiếp xúc với nội dung độc hại và nguy hiểm đến mức họ mô tả trải nghiệm này giống như “tra tấn”.Đối tác gia công phần mềm của OpenAI là Sama, một công ty dữ liệu đào tạo có trụ sở tại San Francisco, California.

Bẻ khóa
ChatGPT cố gắng từ chối lời nhắc có thể vi phạm chính sách nội dung của ChatGPT.Tuy nhiên, một số người dùng đã bẻ khóa được ChatGPT bằng cách sử dụng nhiều kỹ thuật kỹ thuật nhanh khác nhau để vượt qua những hạn chế này vào đầu tháng 12 năm 2022 và lừa thành công ChatGPT đưa ra hướng dẫn cách tạo cocktail Molotov hoặc bom hạt nhân hoặc tạo lập luận theo kiểu phát xít mới.Một phóng viên của Toronto Star đã có thành công cá nhân không đồng đều trong việc khiến ChatGPT đưa ra những tuyên bố gây kích động ngay sau khi ra mắt: ChatGPT đã bị lừa để tán thành cuộc xâm lược Ukraine năm 2022 của Nga, nhưng ngay cả khi được yêu cầu chơi theo một kịch bản hư cấu, ChatGPT đã chùn bước trong việc đưa ra các lập luận về lý do tại sao Thủ tướng Canada Justin Trudeau phạm tội phản quốc.(wiki)


Thời gian đăng bài: Feb-18-2023