Đề cuối kì 2 Văn 12 Chân trời sáng tạo có đáp án - Đề 8

105 người thi tuần này 4.6 2.1 K lượt thi 7 câu hỏi 45 phút

🔥 Đề thi HOT:

Nội dung liên quan:

Danh sách câu hỏi:

Đoạn văn 1

I. Đọc hiểu (4,0 điểm)

Đọc văn bản sau và thực hiện các yêu cầu:

OpenAI kêu gọi kìm hãm trí tuệ nhân tạo

(Ngọc Diệp)

Đội ngũ đằng sau hệ thống ChatGPT cho biết, cần có một cơ quan giám sát để chống lại rủi ro của những AI “siêu thông minh”.

Trong một ghi chú ngắn đăng trên trang web của công ty, những người đồng sáng lập, ông Greg Brockman và ông Ilya Sutskever cùng giám đốc điều hành, ông Sam Altman, đã nhấn mạnh sự cần thiết của một cơ quan quản lý quốc tế chuyên “kiểm tra hệ thống, giám sát việc tuân thủ các tiêu chuẩn an toàn và đặt ra các hạn chế về mức độ triển khai và mức độ bảo mật” nhằm giảm các “rủi ro” mà các hệ thống AI có thể gây ra.

“Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả bằng những tập đoàn lớn nhất hiện nay. Xét về mặt tích cực và tiêu cực, siêu trí tuệ sẽ mạnh hơn các công nghệ khác mà nhân loại từng đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều; nhưng chúng ta phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro hiện hữu, chúng ta cần phải hành động”, họ viết

Bộ ba kêu gọi “sự phối hợp” giữa các công ty làm việc trong lĩnh vực nghiên cứu AI, nhằm đảm bảo các mô hình trí tuệ nhân tạo phối hợp trơn tru với xã hội, đồng thời ưu tiên sự an toàn. Chẳng hạn, sự phối hợp đó có thể thông qua một dự án do chính phủ lãnh đạo, hoặc qua một thỏa thuận tập thể nhằm hạn chế sự phát triển về khả năng của AI.

OpenAI cho biết “siêu trí tuệ” sẽ mạnh hơn mọi công nghệ khác mà nhân loại từng đối mặt trong quá khứ

Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của siêu trí tuệ trong nhiều thập kỷ, nhưng khi sự phát triển của AI tăng tốc đến chóng mặt, những rủi ro đó đã trở nên cụ thể hơn. Trung tâm An toàn AI (CAIS) có trụ sở tại Mỹ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” mà AI có thể gây ra.

Trong khi một số người lo lắng về việc một AI mạnh mẽ sẽ hủy diệt hoàn toàn nhân loại, dù vô tình hay cố ý, CAIS cảnh báo những tác hại khác nguy hiểm hơn. Một thế giới mà các hệ thống AI được phép lao động nhiều hơn bao giờ hết có thể dẫn đến việc loài người “mất khả năng tự quản và trở nên hoàn toàn phụ thuộc vào máy móc”; hoặc một nhóm nhỏ những người kiểm soát các hệ thống mạnh mẽ có thể “biến AI thành một lực lượng tập trung hóa”, tạo một hệ thống đẳng cấp vĩnh cửu giữa kẻ trị vì và kẻ bị trị.

Các nhà lãnh đạo của OpenAI cho biết những rủi ro đó có nghĩa là “mọi người trên khắp thế giới nên cùng xác định các giới hạn cho các hệ thống AI”, nhưng họ cũng thừa nhận rằng họ “chưa biết cách thiết kế một cơ chế như vậy”. Tuy nhiên, họ tin rằng việc tiếp tục phát triển các hệ thống mạnh mẽ đáng để chúng ta mạo hiểm.

“Chúng tôi tin rằng, nó sẽ dẫn đến một thế giới tốt đẹp hơn nhiều so với những gì chúng ta có thể hình dung bây giờ”, họ viết. Mặt khác, họ cũng cảnh báo rằng việc tạm dừng phát triển cũng có thể nguy hiểm. “Bởi những mặt tích cực là rất lớn, chi phí để xây dựng AI giảm đi mỗi năm, số lượng người tham gia xây dựng nó đang tăng lên và nó vốn dĩ đã là một phần của con đường công nghệ mà chúng ta đang theo đuổi. Để ngăn chặn nó sẽ cần một chế độ giám sát toàn cầu và thậm chí điều đó cũng không đảm bảo sẽ triệt để. Vì vậy, chúng ta phải làm AI cho đúng”.

Ngọc Diệp

Theo theguardian.com, ngày 24/05/2023

Lời giải

- Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của siêu trí tuệ trong nhiều thập kỉ, nhưng khi sự phát triển của AI tăng tốc đến chóng mặt, những rủi ro đó đã trở nên cụ thể hơn. Cần có một cơ quan giám sát để chống lại rủi ro của những AI “siêu thông minh” bởi trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kĩ năng chuyên gia trong hầu hết các lĩnh vực. Trung tâm An toàn AI (CAIS) có trụ sở tại Mĩ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” mà AI có thể gây ra.

- Sự mạch lạc của văn bản: Tất cả các thông tin của văn bản đều xoay quanh mục đích hãy cùng nhau hạn chế những rủi ro tiềm ẩn của siêu trí tuệ đối với con người.

Lời giải

- Nhan đề: OpenAI kêu gọi kìm hãm trí tuệ nhân tạo phù hợp với nội dung, mục đích của văn bản; nhan đề ngắn gọn này cũng mang tính cảnh báo con người trước sự phát triển mạnh mẽ của trí tuệ nhân tạo.

- Đề xuất nhan đề mới: HS tự làm từ góc nhìn và quan điểm cá nhân.

Lời giải

- Dữ liệu quan trọng:

+ Open AI cho biết siêu trí tuệ: sẽ mạnh hơn mọi công nghệ khác mà nhân loại từng đối mặt trong quá khứ.

+ Trung tâm An toàn AI có trụ sở tại Mĩ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” mà AI có thể gây ra.

→ thuộc dữ liệu thứ cấp đáng tin cậy.

- Chúng có vai trò quan trọng trong văn bản:

+ Chứng minh tầm quan trọng, cấp thiết của vấn đề.

+ Con người cần cảnh giác cao độ trước tốc độ phát triển của AI.

Lời giải

- Phải kêu gọi kìm hãm trí tuệ nhân tạo vì:

+ Hệ thống AI được phép lao động nhiều hơn bao giờ hết có thể dẫn đến việc loài người “mất khả năng tự quản và trở nên hoàn toàn phụ thuộc vào máy móc”.

+ AI thành một lực lượng tập trung hóa, tạo một hệ thống đẳng cấp vĩnh cửu giữa kẻ trị vì và kẻ bị trị.

+ Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kĩ năng chuyên gia trong hầu hết các lĩnh vực.

→ AI phát triển quá nhanh, ngoài sự kiểm soát của con người, nó có thể gây ra những hậu quả mà con người không thể khắc phục.

- Nếu không kìm hãm:

+ Con người sẽ bị phụ thuộc AI.

+ Con người mất kiểm soát, không thể khắc phục hậu quả.

Lời giải

- HS tự xác định thông tin từ sự tiếp nhận của cá nhân.

- Thực sự lo lắng:

+ Thừa nhận rằng họ “chưa biết cách thiết kế một cơ chế như vậy”; “mọi người trên khắp thế giới nên cùng xác định các giới hạn cho các hệ thống AI”.

+ Mặt khác, họ cũng cảnh báo rằng việc tạm dừng phát triển cũng có thể nguy hiểm.

+ Để ngăn chặn nó sẽ cần một chế độ giám sát toàn cầu và thậm chí điều đó cũng không đảm bảo triệt để.

Lời giải

Bạn cần đăng ký gói VIP ( giá chỉ từ 199K ) để làm bài, xem đáp án và lời giải chi tiết không giới hạn.

Nâng cấp VIP

Lời giải

Bạn cần đăng ký gói VIP ( giá chỉ từ 199K ) để làm bài, xem đáp án và lời giải chi tiết không giới hạn.

Nâng cấp VIP

4.6

421 Đánh giá

50%

40%

0%

0%

0%