Các sản phẩm ChatGPT đang nổi lên như một dòng chảy vô tận và quy định toàn cầu đang vượt qua sông bằng cách cảm nhận những viên đá

Nguồn: Nhà máy điện, Tác giả: Zhang Yongyi, Biên tập: Gao Yulei

Nguồn hình ảnh: Được tạo bởi công cụ Unbounded AI

Vào ngày 31 tháng 7, các sản phẩm chatgpt trong App Store của Apple tại Trung Quốc đã được đưa ra khỏi kệ chung, theo Apple, các sản phẩm liên quan cần phải xin giấy phép hoạt động.

Không chỉ Trung Quốc, mà cả Hoa Kỳ và Châu Âu, những quốc gia quyết tâm cạnh tranh trong lĩnh vực này, đang tích cực thực thi luật pháp và quy định đồng thời khuyến khích đổi mới.

Vào tháng 4 năm 2021, Ủy ban Châu Âu lần đầu tiên công bố đề xuất về cơ cấu quản lý hoạt động và quản lý các ứng dụng máy học, đề xuất quy định về AI. Vào thời điểm đó, quan điểm phổ biến nhất trong ngành AI vẫn là câu châm ngôn nổi tiếng của Wu Enda rằng “lo lắng về trí tuệ nhân tạo ngày nay giống như lo lắng về tình trạng quá tải dân số trên sao Hỏa”.

Nhưng đến năm 2023, quan điểm như vậy không còn có thể trở thành chủ đạo nữa: chỉ mất chưa đầy 6 tháng để AI sáng tạo cho thế giới thấy tiềm năng to lớn thay thế con người và thay đổi hoàn toàn thế giới hiện tại—giống như nó đã được phát triển trong Thế chiến thứ hai. như vũ khí hạt nhân.

Nhà vật lý J-Robert Oppenheimer đã dẫn đầu việc phát triển quả bom nguyên tử đầu tiên trên thế giới. Vào thời điểm đó, Chiến tranh thế giới thứ hai đã kết thúc, nhưng bom hạt nhân, với tư cách là vũ khí đáng sợ nhất trong lịch sử loài người, vẫn chiếm ưu thế lớn trong xu thế lịch sử: Hoa Kỳ Chính phủ đã không chấp nhận những lời chỉ trích và gợi ý của các chuyên gia như Oppenheimer rằng "phổ biến hạt nhân sẽ dẫn đến một cuộc chạy đua vũ trang chưa từng có", cuối cùng dẫn đến sự bùng nổ của một cuộc chạy đua vũ trang hạt nhân giữa Hoa Kỳ và Liên Xô do đại diện là Liên Xô. sự phát triển của bom khinh khí "siêu bom hạt nhân"—và trong Cuộc khủng hoảng tên lửa Cuba, gần như toàn bộ nền văn minh nhân loại đã bị kéo vào vực thẳm đen tối không thể cứu vãn.

Cuộc khủng hoảng mà Oppenheimer gặp phải có nhiều điểm tương đồng với "Cuộc khủng hoảng AI Omnic" hiện tại mà con người gặp phải: trước khi con người sử dụng AI để kéo mình vào một tương lai rộng lớn hơn và không thể kiểm soát, hãy hướng nó đến một tương lai lớn hơn và không thể kiểm soát hơn. để thực hiện giám sát một cách an toàn.

Vào năm 2021, "sự chuẩn bị cho một ngày mưa" của Liên minh Châu Âu cuối cùng đã trở thành khuôn khổ pháp lý đầu tiên cho ngành trí tuệ nhân tạo trong lịch sử loài người - nó cũng là tiền thân của Đạo luật Trí tuệ Nhân tạo (Đạo luật AI) của Liên minh Châu Âu.

Tuy nhiên, khi các nhà lập pháp thiết kế dự luật này, họ không mong đợi sự tồn tại của trí tuệ nhân tạo tổng quát hoặc các mô hình lớn vào cuối năm 2022. Do đó, sự gia tăng bùng nổ của AI tổng quát vào năm 2023 cũng đã bổ sung thêm phần về AI tổng quát: bao gồm tính minh bạch của việc sử dụng các mô hình lớn và quy định về thu thập/sử dụng dữ liệu người dùng.

Hiện tại, dự luật này đã được Nghị viện châu Âu biểu quyết vào giữa tháng 6. Bước tiếp theo cho các điều khoản cuối cùng là hoàn thiện luật trong các cuộc đàm phán giữa ba cơ quan ra quyết định của EU - Nghị viện, Hội đồng và Ủy ban. Một thỏa thuận sẽ đạt được và cuối cùng có hiệu lực.

Tại Trung Quốc, pháp luật về AI sáng tạo cũng đang được tiến hành: vào ngày 13 tháng 7, "Các biện pháp tạm thời để quản lý các dịch vụ trí tuệ nhân tạo sáng tạo" (sau đây gọi chung là "Các biện pháp tạm thời") đã được ban hành bởi bảy bộ và ủy ban bao gồm cả Cục quản lý không gian mạng của Trung Quốc. Nó sẽ có hiệu lực vào tháng 8.

Đây có thể trở thành quy định quản lý trí tuệ nhân tạo tổng quát đầu tiên cuối cùng sẽ được thực hiện. AI. .

Ở các quốc gia khác đang trong giai đoạn phát triển AI đầu tiên, chẳng hạn như Vương quốc Anh và Hoa Kỳ, quy định pháp luật về AI cũng đang được tiến hành: vào ngày 16 tháng 3, Văn phòng Bản quyền Hoa Kỳ đã đưa ra sáng kiến nghiên cứu các vấn đề về chính sách và luật bản quyền phát sinh từ công nghệ trí tuệ nhân tạo: bao gồm Phạm vi bản quyền đối với các tác phẩm được tạo bằng các công cụ trí tuệ nhân tạo và việc sử dụng tài liệu có bản quyền cho mục đích học máy. Chính phủ Vương quốc Anh đã công bố khung pháp lý AI đầu tiên vào ngày 4 tháng 4. Kể từ đó, Cơ quan Quản lý Thông tin và Viễn thông Quốc gia Hoa Kỳ (NTIA) đã phát hành dự thảo trách nhiệm giải trình AI để thu hút phản hồi rộng rãi hơn của công chúng về các biện pháp và chính sách trách nhiệm AI.

“Chúng ta có nên phát triển tư duy phi con người để cuối cùng có thể thay thế hoàn toàn con người về số lượng và trí thông minh?” Đây là câu hỏi được đặt ra trong một bức thư ngỏ có chữ ký của một số CEO và nhà nghiên cứu nổi tiếng vào tháng 3 năm nay. Bây giờ nhìn lại, trên con đường phát triển AI thế hệ mới, lời kêu gọi "mọi người tạm dừng nghiên cứu trong sáu tháng" là quá lý tưởng, hiện tại chỉ những quốc gia thúc đẩy luật liên quan đến AI thế hệ mới đóng vai trò điều tiết mới có hiệu quả.

ĐỔI MỚI VÀ TRÁCH NHIỆM

Luật pháp và quản trị AI tổng quát là một lĩnh vực mới mà trước đây chưa ai đặt chân vào và mọi nhà lập pháp đều phải chịu áp lực nghi ngờ từ thế giới bên ngoài: Tại hội nghị nhà phát triển Google I/O năm nay, Google đã chính thức công bố AI sáng tạo Robot đàm thoại Bard, nhưng phạm vi dịch vụ hoàn toàn không bao gồm khu vực Châu Âu.

Điều này khiến nhiều nhà nghiên cứu/công ty AI châu Âu đặt câu hỏi: Tại sao châu Âu lại vắng bóng? Sau đó, Google đã tuyên bố nhiều lần rằng họ "mong muốn mở cửa cho người dùng châu Âu", điều này được hiểu thêm là một "biện pháp phòng ngừa rủi ro" để Google tránh vùng xám pháp lý tồn tại trong AI tổng quát, dẫn đến khoản tiền phạt khổng lồ ở EU .

Đến tháng 7, Google cuối cùng đã tiết lộ lý do: Jack Krawczyk, người đứng đầu sản phẩm Bard, đã viết trong một bài đăng trên blog: Khi bắt đầu nghiên cứu, Ủy ban Bảo vệ Dữ liệu Ireland (DPC) đã đề xuất ý định phát hành Bard ở Châu Âu, nhưng cuối cùng , phải đến tháng 7 mới đáp ứng được yêu cầu cung cấp thông tin của cơ quan quản lý.

Ngày nay, "Đạo luật Trí tuệ Nhân tạo" của Liên minh Châu Âu đã được ban hành và hầu hết mọi luật trong đó đều chỉ ra trực tiếp các vấn đề mới nổi hoặc tiềm ẩn trong quá trình phát triển AI hiện tại: sự lan truyền thông tin sai lệch/sai lệch, khả năng giáo dục/sức khỏe tâm thần và các vấn đề nghiêm trọng khác. các vấn đề.

Nhưng sau đó, các nhà lập pháp nhận thấy rằng phần phức tạp hơn của việc giải quyết vấn đề này nằm ở cách xác định luật: cần bảo vệ sự đổi mới/tránh sự độc quyền của những người khổng lồ trong lĩnh vực AI và đảm bảo khả năng kiểm soát của AI ở một mức độ nhất định . Tránh tràn ngập nội dung giả mạo. Nó đã trở thành cốt lõi chung của luật AI tổng quát ở Trung Quốc, Hoa Kỳ và Châu Âu, nhưng họ có những điểm nhấn khác nhau trong các quy định thực tế.

Nhiều trường hợp châu Âu trước đây về trí tuệ nhân tạo đã gây ra sự đối xử tiêu cực từ các tổ chức như Google và OpenAI. ​Việc hiện thực hóa tầm nhìn trở nên khó khăn: Sau khi "Đạo luật trí tuệ nhân tạo" chính thức được thông qua, Liên minh châu Âu có quyền đưa ra mức phạt lên tới 30 triệu euro, tương đương 6% doanh thu hàng năm của công ty , chống lại các công ty vi phạm các quy định về trí tuệ nhân tạo. Đây chắc chắn là một lời cảnh báo rõ ràng cho các công ty như Google và Microsoft muốn mở rộng hoạt động kinh doanh AI sáng tạo của họ ở châu Âu.

Trong phiên bản tháng 6 của "Đạo luật trí tuệ nhân tạo", các nhà lập pháp EU rõ ràng đã đưa vào các điều khoản mới để khuyến khích đổi mới trí tuệ nhân tạo có trách nhiệm đồng thời giảm rủi ro công nghệ, giám sát trí tuệ nhân tạo đúng cách và đặt nó lên hàng đầu. Vị trí quan trọng: Điều 1 của dự luật rõ ràng hỗ trợ các biện pháp đổi mới cho doanh nghiệp vừa và nhỏ và doanh nghiệp mới thành lập, bao gồm thiết lập "hộp cát điều tiết" và các biện pháp khác để giảm gánh nặng tuân thủ đối với doanh nghiệp vừa và nhỏ và doanh nghiệp khởi nghiệp.

Tuy nhiên, trước khi bán các dịch vụ AI hoặc triển khai hệ thống ra thị trường, AI tổng quát phải đáp ứng một loạt các yêu cầu pháp lý về quản lý rủi ro, dữ liệu, tính minh bạch và tài liệu, đồng thời, việc sử dụng trí tuệ nhân tạo trong các lĩnh vực nhạy cảm như cơ sở hạ tầng quan trọng sẽ được coi là “Rủi ro cao” được đưa vào phạm vi giám sát.

Hiện tại, thông số kỹ thuật AI dựa trên "Các biện pháp tạm thời" đã có hành động: Vào ngày 31 tháng 7, một số lượng lớn ứng dụng cung cấp dịch vụ ChatGPT trong App Store ở Trung Quốc đã bị Apple xóa chung khỏi kệ và đã làm không cung cấp quyền truy cập ChatGPT trực tiếp mà tập trung vào các chức năng AI. Một loạt ứng dụng khác sẽ không bị ảnh hưởng trong thời điểm hiện tại.

Trong thư trả lời các nhà phát triển, gợi ý đánh giá chính thức của Apple là “các dịch vụ trí tuệ nhân tạo tổng hợp phải đáp ứng các yêu cầu cấp phép để hoạt động tại Trung Quốc, bao gồm cả việc xin giấy phép từ Bộ Công nghiệp và Công nghệ thông tin.” Sự thay đổi này trong thông số kỹ thuật đánh giá cũng tương ứng trực tiếp đến Danh mục "cung cấp dịch vụ cho công chúng" trong "Các biện pháp tạm thời".

Điều 15 trong "Các biện pháp tạm thời" của Trung Quốc cũng đề cập rõ ràng đến phương pháp quản lý việc tạo nội dung rủi ro "các nhà cung cấp nên nhanh chóng thực hiện các biện pháp như ngừng tạo, ngừng truyền và loại bỏ, đồng thời thực hiện các biện pháp như đào tạo tối ưu hóa mô hình để khắc phục." Điều này đã được đề cập trong "Dự thảo lấy ý kiến"; tuy nhiên, so với phiên bản trước, mô tả trong "Các biện pháp tạm thời" vừa phải hơn và mô tả về thời hạn như "cải chính trong vòng ba tháng" đã bị xóa .

Trong số những tranh cãi hiện nay xung quanh sự ra đời của AI tổng quát, tranh chấp bản quyền dữ liệu được sử dụng để đào tạo các mô hình ngôn ngữ quy mô lớn cho AI tổng quát, các nhà sản xuất ở giai đoạn phát triển AI tổng quát đầu tiên đã cảm thấy bị hạn chế do thiếu nội dung chất lượng cao." Trần vô hình", nhưng đồng thời, vô số người sáng tạo và phương tiện truyền thông đã bắt đầu khởi xướng các thủ tục pháp lý và các hành động khác về các vấn đề bản quyền do AI tổng quát gây ra. Sắp xây dựng các điều khoản bảo vệ bản quyền nội dung cho sự phát triển của AI tổng quát.

Do đó, đây cũng là trọng tâm của luật AI chung ở Hoa Kỳ và Châu Âu: "Đạo luật Trí tuệ Nhân tạo" của Châu Âu yêu cầu rõ ràng các nhà cung cấp mô hình quy mô lớn phải khai báo liệu họ có sử dụng tài liệu có bản quyền để đào tạo AI hay không, đồng thời ghi lại. đủ thông tin nhật ký để người sáng tạo tìm kiếm Khoản bồi thường; trong khi Văn phòng Bản quyền Hoa Kỳ đã đưa ra đánh giá mới, thu hút các đề xuất về các vấn đề bản quyền rộng lớn do AI tổng quát đưa ra và tìm kiếm luật đặc biệt để giải quyết chúng.

Trong "Biện pháp tạm thời" hiện tại, các đoạn có liên quan trong dự thảo để lấy ý kiến vào tháng 4 đã bị xóa, để lại "Biện pháp tạm thời" hiện tại với các điều khoản trống về bảo vệ quyền sở hữu trí tuệ đối với nguồn dữ liệu cần được cải thiện khẩn cấp.

Tuy nhiên, đối với các mô hình lớn mà AI tổng quát dựa vào để phát triển; quy luật phát triển là tìm kiếm dữ liệu trên Internet để đẩy nhanh quá trình phát triển lặp lại của các mô hình lớn và các hạn chế về một kích cỡ phù hợp với tất cả có khả năng gây ra đòn giáng mạnh vào toàn bộ ngành công nghiệp. Đề cập đến "miễn trừ" trong các tình huống khác nhau: Trong "Luật Trí tuệ nhân tạo" của Liên minh Châu Âu, miễn trừ nghiên cứu AI của các nhà phát triển nguồn mở được bao gồm: hợp tác và xây dựng các thành phần trí tuệ nhân tạo trong môi trường mở sẽ nhận được đặc biệt sự bảo vệ. Đồng thời, trong phần “Biện pháp tạm thời”, các điều khoản liên quan cũng làm rõ phạm vi miễn trừ của pháp luật:

"Miễn là các doanh nghiệp, tổ chức nghiên cứu khoa học, v.v. không công khai cung cấp dịch vụ trí tuệ nhân tạo cho công chúng, thì luật này không được áp dụng."

"Pháp luật trong lĩnh vực sở hữu trí tuệ vẫn cần thêm thời gian để nghiên cứu và chứng minh." Một nhà tư vấn pháp lý hiện đang phục vụ các nhà sản xuất mô hình quy mô lớn nói với các phóng viên: "Bộ dữ liệu chất lượng cao của Trung Quốc khan hiếm hơn nội dung tiếng Anh và rất nhiều đặc điểm của Đào tạo AI xác định rằng ngay cả những người khổng lồ cũng không thể hoàn toàn ký hợp đồng với mọi nền tảng và mọi người tạo nội dung một cách độc lập, chưa kể phí bản quyền cao ngất trời đã là một đòn giáng mạnh vào các công ty khởi nghiệp.”

“Có lẽ vấn đề hiện nay chỉ có thể để thời gian cho sự phát triển của ngành để có những giải pháp thiết thực hơn”. Cạnh tranh và hợp tác, nhà tư vấn nói thêm. Mặc dù trong cuộc cạnh tranh giữa Trung Quốc và Hoa Kỳ, sự phát triển AI đã trở thành một trong những chiến trường chính của Hoa Kỳ để ngăn chặn sự phát triển của Trung Quốc, nhưng trong lĩnh vực pháp luật AI chung chung, sự hợp tác giữa Trung Quốc, Hoa Kỳ và Châu Âu đang dần trở nên rõ ràng. Dòng chính.

Ở giai đoạn này, các công ty trí tuệ nhân tạo ở Hoa Kỳ đã nhận ra những rủi ro đi kèm với sự phát triển của AI. Những lời hứa đã được đưa ra để đảm bảo rằng AI "không làm điều ác": OpenAI tuyên bố rằng sứ mệnh đã nêu của nó là "đảm bảo rằng trí thông minh nhân tạo nói chung mang lại lợi ích cho toàn nhân loại." Các nguyên tắc hoạt động của DeepMind bao gồm cam kết "là người tiên phong có trách nhiệm trong lĩnh vực trí tuệ nhân tạo", trong khi những người sáng lập DeepMind cam kết không tham gia vào nghiên cứu trí tuệ nhân tạo gây chết người và các nguyên tắc nghiên cứu trí tuệ nhân tạo của Google cũng quy định rằng Google sẽ không triển khai hoặc thiết kế cho các loại Vũ khí gây hại cho con người hoặc trí tuệ nhân tạo vi phạm các tiêu chuẩn quốc tế về giám sát.

Vào ngày 26 tháng 7, Anthropic, Google, Microsoft và OpenAI đã ra mắt Diễn đàn Mô hình Biên giới, một cơ quan trong ngành tập trung vào việc đảm bảo sự phát triển an toàn và có trách nhiệm của các mô hình AI tiên tiến.

Diễn đàn sẽ nhằm mục đích "làm việc với các nhà hoạch định chính sách, học viện và xã hội dân sự để giảm thiểu rủi ro và chia sẻ kiến thức về rủi ro bảo mật" trong khi thúc đẩy nghiên cứu AI. Đồng thời, tích cực hội nhập vào các hợp tác đa phương quốc tế hiện có: bao gồm G7, OECD và các tổ chức xây dựng chính sách khác về trí tuệ nhân tạo. Để thúc đẩy sự đồng bộ hóa của các quốc gia theo hướng pháp luật và các khái niệm quy định.

Trước đây, tạp chí Time đã nhận xét rằng có nhiều khả năng hợp tác giữa Trung Quốc và Hoa Kỳ với tư cách là "những người chơi quan trọng" trong lĩnh vực AI sáng tạo và Châu Âu, vốn thường là "người tiên phong" trên thực tế trong luật công nghệ mới, là vì lợi ích tất cả các bên bắt đầu hợp tác ở giai đoạn lập pháp và đó cũng là một trong những phương tiện quan trọng để thúc đẩy sự phát triển của trí tuệ nhân tạo.

Điều này cũng phù hợp với quan điểm của Max Tegmark, giáo sư tại Viện Công nghệ Massachusetts và là người sáng lập Viện Tương lai của Cuộc sống: "Trung Quốc đang ở vị trí thuận lợi trong nhiều lĩnh vực trí tuệ nhân tạo, và có khả năng sẽ trở thành quốc gia đi đầu trong việc kiểm soát trí tuệ nhân tạo."

Số lượng mô hình quy mô lớn ở Trung Quốc và Hoa Kỳ chiếm 90% trên toàn thế giới, do đó, sự phối hợp lập pháp giữa Trung Quốc, Hoa Kỳ và Châu Âu thậm chí sẽ quyết định xu hướng phát triển của ngành AI toàn cầu. “Phối hợp pháp lý với Trung Quốc trên tiền đề phù hợp với lợi ích của Hoa Kỳ” đã dần trở thành sự đồng thuận của giới chính trị và học giả Hoa Kỳ.

Bìa câu chuyện nổi bật của WIRED

Đại diện hơn là các biện pháp phân loại rủi ro AI: "Các biện pháp tạm thời" của Trung Quốc đã đề cập đến "sự thận trọng toàn diện và phân loại và giám sát phân loại đối với các dịch vụ trí tuệ nhân tạo tổng quát", nhưng không nêu chi tiết về cách phân loại trong phiên bản hiện tại. Hiện tại, chỉ có các đoạn như " phát triển các quy tắc hoặc hướng dẫn giám sát phân loại và phân loại tương ứng" đã được viết.

"Luật trí tuệ nhân tạo" của châu Âu cũng đề xuất một hệ thống phân loại tương ứng với nghĩa vụ của các nhà phát triển AI với các mức độ rủi ro khác nhau. "Mức độ đe dọa" AI được đề xuất hiện tại bao gồm bốn loại:

  • Rủi ro hạn chế AI
  • AI rủi ro cao
  • Mức độ rủi ro không thể chấp nhận được
  • Trí tuệ nhân tạo: Các sản phẩm như ChatGPT

Trong phiên bản hiện tại, "Luật trí tuệ nhân tạo" trích xuất AI tổng quát như một phân loại độc lập, đồng thời hạn chế nghiêm ngặt các sản phẩm được phân loại là "AI có rủi ro cao". Đây cũng được coi là "kế hoạch chi tiết tham khảo" cho luật pháp về rủi ro AI trong tương lai ở Trung Quốc và Hoa Kỳ.

Ngoài ra, xét từ quy trình lập pháp thực tế, việc tích cực mời công chúng và các tổ chức nghiên cứu AI tham gia vào quy trình lập pháp là một sự đồng thuận được hình thành bởi các cơ quan quản lý ở nhiều quốc gia thông qua kinh nghiệm trong sáu tháng qua. không thể đặt câu hỏi.

"AI sáng tạo có thể không bao giờ hoàn hảo, nhưng luật định sẽ đóng một vai trò quan trọng trong định hướng chính của sự phát triển AI"

Giống như Oppenheimer không bao giờ hối hận khi phát triển bom nguyên tử ở New Mexico mặc dù ông phản đối việc sử dụng vũ khí hạt nhân trong chiến tranh, không ai có thể ngăn các nhà nghiên cứu tò mò sử dụng công nghệ hiện có để phát triển AI thông minh hơn, tốc độ khám phá khoa học sẽ không bao giờ dừng lại ở đó. Sự giám sát “cần thiết và hợp lý” là “cú hích” trên con đường chạy đua điên cuồng của AI, đồng thời cũng là “tuyến phòng thủ cuối cùng” để ngăn chặn trí tuệ nhân tạo sinh sôi gây ra tác hại thực sự.

Nhưng tập trung vào "làm thế nào để tránh bị tụt hậu trong cuộc đua AI do quy định gây ra" vẫn là một trong những điều được các nhà lập pháp quan tâm nhất. Pháp luật liên quan chắc chắn sẽ trở nên hoàn thiện hơn với nhiều kinh nghiệm và phản hồi hơn.

"Các cơ quan quản lý sẽ duy trì tinh thần của pháp luật khoa học và pháp luật cởi mở, đồng thời sửa đổi và cải tiến kịp thời." Đoạn văn về AI tổng quát trong "Các biện pháp tạm thời" có thể là nguyên tắc tốt nhất cho luật pháp trong kỷ nguyên AI tổng quát.

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)