Câu hỏi:
31/03/2025 45I. Đọc hiểu (4,0 điểm)
Đọc văn bản sau và thực hiện các yêu cầu:
OpenAI kêu gọi kìm hãm trí tuệ nhân tạo
(Ngọc Diệp)
Đội ngũ đằng sau hệ thống ChatGPT cho biết, cần có một cơ quan giám sát để chống lại rủi ro của những AI “siêu thông minh”.
Trong một ghi chú ngắn đăng trên trang web của công ty, những người đồng sáng lập, ông Greg Brockman và ông Ilya Sutskever cùng giám đốc điều hành, ông Sam Altman, đã nhấn mạnh sự cần thiết của một cơ quan quản lý quốc tế chuyên “kiểm tra hệ thống, giám sát việc tuân thủ các tiêu chuẩn an toàn và đặt ra các hạn chế về mức độ triển khai và mức độ bảo mật” nhằm giảm các “rủi ro” mà các hệ thống AI có thể gây ra.
“Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả bằng những tập đoàn lớn nhất hiện nay. Xét về mặt tích cực và tiêu cực, siêu trí tuệ sẽ mạnh hơn các công nghệ khác mà nhân loại từng đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều; nhưng chúng ta phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro hiện hữu, chúng ta cần phải hành động”, họ viết
Bộ ba kêu gọi “sự phối hợp” giữa các công ty làm việc trong lĩnh vực nghiên cứu AI, nhằm đảm bảo các mô hình trí tuệ nhân tạo phối hợp trơn tru với xã hội, đồng thời ưu tiên sự an toàn. Chẳng hạn, sự phối hợp đó có thể thông qua một dự án do chính phủ lãnh đạo, hoặc qua một thỏa thuận tập thể nhằm hạn chế sự phát triển về khả năng của AI.
OpenAI cho biết “siêu trí tuệ” sẽ mạnh hơn mọi công nghệ khác mà nhân loại từng đối mặt trong quá khứ
Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của siêu trí tuệ trong nhiều thập kỷ, nhưng khi sự phát triển của AI tăng tốc đến chóng mặt, những rủi ro đó đã trở nên cụ thể hơn. Trung tâm An toàn AI (CAIS) có trụ sở tại Mỹ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” mà AI có thể gây ra.
Trong khi một số người lo lắng về việc một AI mạnh mẽ sẽ hủy diệt hoàn toàn nhân loại, dù vô tình hay cố ý, CAIS cảnh báo những tác hại khác nguy hiểm hơn. Một thế giới mà các hệ thống AI được phép lao động nhiều hơn bao giờ hết có thể dẫn đến việc loài người “mất khả năng tự quản và trở nên hoàn toàn phụ thuộc vào máy móc”; hoặc một nhóm nhỏ những người kiểm soát các hệ thống mạnh mẽ có thể “biến AI thành một lực lượng tập trung hóa”, tạo một hệ thống đẳng cấp vĩnh cửu giữa kẻ trị vì và kẻ bị trị.
Các nhà lãnh đạo của OpenAI cho biết những rủi ro đó có nghĩa là “mọi người trên khắp thế giới nên cùng xác định các giới hạn cho các hệ thống AI”, nhưng họ cũng thừa nhận rằng họ “chưa biết cách thiết kế một cơ chế như vậy”. Tuy nhiên, họ tin rằng việc tiếp tục phát triển các hệ thống mạnh mẽ đáng để chúng ta mạo hiểm.
“Chúng tôi tin rằng, nó sẽ dẫn đến một thế giới tốt đẹp hơn nhiều so với những gì chúng ta có thể hình dung bây giờ”, họ viết. Mặt khác, họ cũng cảnh báo rằng việc tạm dừng phát triển cũng có thể nguy hiểm. “Bởi những mặt tích cực là rất lớn, chi phí để xây dựng AI giảm đi mỗi năm, số lượng người tham gia xây dựng nó đang tăng lên và nó vốn dĩ đã là một phần của con đường công nghệ mà chúng ta đang theo đuổi. Để ngăn chặn nó sẽ cần một chế độ giám sát toàn cầu và thậm chí điều đó cũng không đảm bảo sẽ triệt để. Vì vậy, chúng ta phải làm AI cho đúng”.
Ngọc Diệp
Theo theguardian.com, ngày 24/05/2023
Sách mới 2k7: Bộ 20 đề minh họa Toán, Lí, Hóa, Văn, Sử, Địa…. form chuẩn 2025 của Bộ giáo dục (chỉ từ 49k/cuốn).
Quảng cáo
Trả lời:
- Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của siêu trí tuệ trong nhiều thập kỉ, nhưng khi sự phát triển của AI tăng tốc đến chóng mặt, những rủi ro đó đã trở nên cụ thể hơn. Cần có một cơ quan giám sát để chống lại rủi ro của những AI “siêu thông minh” bởi trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kĩ năng chuyên gia trong hầu hết các lĩnh vực. Trung tâm An toàn AI (CAIS) có trụ sở tại Mĩ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” mà AI có thể gây ra.
- Sự mạch lạc của văn bản: Tất cả các thông tin của văn bản đều xoay quanh mục đích hãy cùng nhau hạn chế những rủi ro tiềm ẩn của siêu trí tuệ đối với con người.
Câu hỏi cùng đoạn
Câu 2:
Lời giải của GV VietJack
- Nhan đề: OpenAI kêu gọi kìm hãm trí tuệ nhân tạo phù hợp với nội dung, mục đích của văn bản; nhan đề ngắn gọn này cũng mang tính cảnh báo con người trước sự phát triển mạnh mẽ của trí tuệ nhân tạo.
- Đề xuất nhan đề mới: HS tự làm từ góc nhìn và quan điểm cá nhân.
Câu 3:
(1,0 điểm) Xác định các dữ liệu quan trọng trong văn bản và cho biết chúng thuộc dữ liệu sơ cấp hay thứ cấp? Chúng có vai trò gì trong văn bản.
Lời giải của GV VietJack
- Dữ liệu quan trọng:
+ Open AI cho biết siêu trí tuệ: sẽ mạnh hơn mọi công nghệ khác mà nhân loại từng đối mặt trong quá khứ.
+ Trung tâm An toàn AI có trụ sở tại Mĩ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” mà AI có thể gây ra.
→ thuộc dữ liệu thứ cấp đáng tin cậy.
- Chúng có vai trò quan trọng trong văn bản:
+ Chứng minh tầm quan trọng, cấp thiết của vấn đề.
+ Con người cần cảnh giác cao độ trước tốc độ phát triển của AI.
Câu 4:
(1,0 điểm) Vì sao phải kêu gọi kìm hãm trí tuệ nhân tạo? Nếu không kìm hãm sẽ xảy ra điều gì?
Lời giải của GV VietJack
- Phải kêu gọi kìm hãm trí tuệ nhân tạo vì:
+ Hệ thống AI được phép lao động nhiều hơn bao giờ hết có thể dẫn đến việc loài người “mất khả năng tự quản và trở nên hoàn toàn phụ thuộc vào máy móc”.
+ AI thành một lực lượng tập trung hóa, tạo một hệ thống đẳng cấp vĩnh cửu giữa kẻ trị vì và kẻ bị trị.
+ Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kĩ năng chuyên gia trong hầu hết các lĩnh vực.
→ AI phát triển quá nhanh, ngoài sự kiểm soát của con người, nó có thể gây ra những hậu quả mà con người không thể khắc phục.
- Nếu không kìm hãm:
+ Con người sẽ bị phụ thuộc AI.
+ Con người mất kiểm soát, không thể khắc phục hậu quả.
Câu 5:
(1,0 điểm) Văn bản đưa đến cho em những hiểu biết mới mẻ nào về AI? Thái độ của tác giả trước vấn đề của AI như thế nào?
Lời giải của GV VietJack
- HS tự xác định thông tin từ sự tiếp nhận của cá nhân.
- Thực sự lo lắng:
+ Thừa nhận rằng họ “chưa biết cách thiết kế một cơ chế như vậy”; “mọi người trên khắp thế giới nên cùng xác định các giới hạn cho các hệ thống AI”.
+ Mặt khác, họ cũng cảnh báo rằng việc tạm dừng phát triển cũng có thể nguy hiểm.
+ Để ngăn chặn nó sẽ cần một chế độ giám sát toàn cầu và thậm chí điều đó cũng không đảm bảo triệt để.
CÂU HỎI HOT CÙNG CHỦ ĐỀ
Câu 1:
II. Viết (6,0 điểm)
(2,0 điểm)
Nêu những hậu quả AI đã gây ra cho con người. Trước mắt, chúng ta có thể làm gì để giảm thiểu rủi ro do AI gây ra? (Trả lời bằng đoạn văn 200 chữ).
Câu 2:
(4,0 điểm)
Viết bài phát biểu (khoảng 600 chữ) trong buổi lễ phát động phong trào làm sạch đường phố.
Câu 3:
Câu 4:
(1,0 điểm) Xác định các dữ liệu quan trọng trong văn bản và cho biết chúng thuộc dữ liệu sơ cấp hay thứ cấp? Chúng có vai trò gì trong văn bản.
Câu 5:
(1,0 điểm) Vì sao phải kêu gọi kìm hãm trí tuệ nhân tạo? Nếu không kìm hãm sẽ xảy ra điều gì?
Câu 6:
(1,0 điểm) Văn bản đưa đến cho em những hiểu biết mới mẻ nào về AI? Thái độ của tác giả trước vấn đề của AI như thế nào?
Đề kiểm tra Giữa kì 1 Ngữ Văn 12 Chân trời sáng tạo có đáp án (Đề 4)
Đề kiểm tra Giữa kì 1 Ngữ Văn 12 Chân trời sáng tạo có đáp án (Đề 3)
Đề kiểm tra Giữa kì 1 Ngữ Văn 12 Kết nối tri thức có đáp án (Đề 2)
Đề kiểm tra Giữa kì 1 Ngữ Văn 12 Chân trời sáng tạo có đáp án (Đề 2)
Đề kiểm tra Giữa kì 1 Ngữ Văn 12 Chân trời sáng tạo có đáp án (Đề 5)
Bộ 10 đề thi cuối kì 1 Ngữ Văn lớp 12 Chân trời sáng tạo có đáp án - Đề 1
Đề kiểm tra Giữa kì 1 Ngữ Văn 12 Kết nối tri thức có đáp án (Đề 4)
Bộ 10 đề thi cuối kì 1 Ngữ Văn lớp 12 Chân trời sáng tạo có đáp án - Đề 9
Hãy Đăng nhập hoặc Tạo tài khoản để gửi bình luận