LaMDA AI của Google hoạt động như thế nào và liệu nó "có cảm tính" giống con người hay không?

HaiiDeas

Viết dạo...
Tham gia
23/4/16
Bài viết
14,115
Được thích
17,189
3408 #1

Những lo sợ xung quanh sự phát triển của Trí tuệ nhân tạo không phải là điều quá mới mẻ. Nhưng gần đây, cuộc trò chuyện giữa một nhà nghiên cứu và chatbot được hỗ trợ bởi LaMDA AI của Google đã khơi dậy nhiều cuộc thảo luận xoay quanh vấn đề về này, đồng thời đặt ra một câu hỏi rằng, sẽ thế nào nếu như chúng trở nên có cảm tính như con người?

(Bài viết lược dịch theo tài liệu của nước ngoài, bố cục có hơi dài nhưng mình xin phép giữ nguyên toàn bộ nội dung để cung cấp cho các bạn những thông tin chi tiết nhất về LaMDA AI).

Được phát triển như một bước đột phá trong công nghệ hội thoại

Tại Google I/O 2021, Giám đốc điều hành Google - Sundar Pichai đã tiết lộ "bước đột phá mới nhất của công ty trong việc xử lý ngôn ngữ tự nhiên trong lĩnh vực trí tuệ nhân tạo", được gọi là LaMDA (theo nghĩa đen thì đây là cụm từ viết tắt của "Language Model for Dialogue Applications"). Về cơ bản, nó là một chatbot hỗ trợ máy học được thiết kế để trò chuyện về bất kỳ chủ đề nào, giống như Watson của IBM khi cung cấp cho người dùng khả năng giao tiếp về một loạt các sự kiện, nhưng LaMDA AI có khả năng hiểu và kỹ năng tạo những đoạn hội thoại tốt hơn. Google cho biết vào thời điểm đó, AI này chỉ được đào tọa về văn bản, có nghĩa là nó không thể tạo hoặc phản hồi những thứ liên quan đến hình ảnh, âm thanh hoặc video.


Có thể nói rằng, LaMDA chỉ như một cuốn tiểu thuyết gây tò mò với khả năng phân tích cú pháp câu hỏi ấn tượng và tạo ra những câu trả lời ngẫu nhiên vượt ra khỏi phạm vi thần túy là một chatbot. Google từng trình diễn khả năng phát biểu của LaMDA về sao Diêm Vương, vệ tinh mặt trời, tư vấn cho ai đó về cách ăn mặc v.v... CEO Sundar Pichai đã nhấn mạnh trong bài thuyết trình rằng, đây không phải là loại chatbot trả lời câu hỏi đơn thuần, nó có thể thêm một chút phong cách khi diễn đạt, thể hiện quản điểm về chủ đề được hỏi và thậm chí còn mô hình hóa cách chúng ta thực sự sử dụng ngôn ngữ tốt hơn.

Một lợi ích khác đối với LaMDA là AI này không phải đòa tạo lại cho các cuộc trò chuyện hoặc chủ đề khác nhau. Thay vào đó, nó có thể trả lời về tất cả chủ đề, cho dù là lịch sử hay thời tiết mặc dù vẫn còn nhiều hạn chế ở thời điểm đầu của dự án.

Google cho biết đây vẫn là "nghiên cứu ban đầu" và đang được phát triển tích cực, nhưng công ty đã sử dụng nó trong nội bộ để "khám phá các tương tác mới" và cải thiện kỹ năng xử lý ngôn ngữ của các công cụ hỗ trợ giọng nói khác như Tìm kiếm (Google Search), Trợ lý Google (Google Assistant) và Không gian làm việc (Workspace). Công việc đang diễn ra nhằm đảm bảo nó đáp ứng các tiêu chuẩn cao của Google về tính công bằng, chính xác, an toàn và quyền riêng tư, "nhất quán với các nguyên tắc AI của [Google]". Điều quan trọng là phải kiểm tra và kiểm soát vì câu trả lời của LaMDA cho các câu hỏi có thể trở thành nguồn dữ kiện cho một số người, tùy thuộc vào vị trí và cách thức sử dụng nó.


Tại Google I/O 2022, Google đã tiết lộ "LaMDA 2", một phiên bản nâng cao hơn của AI đàm thoại. Lần này, công ty đã cho phép "hàng nghìn nhân viên Google" kiểm tra nó - một bên để giảm các trường hợp câu trả lời có vấn đề hoặc gây khó chịu. Nhìn chung, LaMDA 2 có nhiều tính năng và chức năng tương tự như phiên bản gốc, hoạt động như một chatbot đa năng tinh vi. Tuy nhiên, phần trình diễn của Google vào thời điểm đó tập trung hơn vào vấn đề kỹ thuật như giữ một cuộc trò chuyện về chủ đề, tạo danh sách gắn với một chủ đề hoặc tưởng tượng đang ở một địa điểm cụ thể. Khả năng của LaMDA chắc chắn không giới hạn ở những quy trình công việc này, chúng chỉ là một con đường mà Google muốn thực hiện để kiểm tra và tinh chỉnh cách thức hoạt động của LaMDA..

LaMDA thậm chí không phải là mô hình xử lý ngôn ngữ phức tạp nhất của Google. PaLM (cũng được tiết lộ tại I/O) là một hệ thống lớn và phức tạp hơn có thể xử lý các vấn đề mà LaMDA không thể, như toán học và tạo mã, với một hệ thống xử lý tiên tiến cho độ chính xác cao hơn.


Nhóm AI của Google đã trở thành chủ đề của cuộc thảo luận xoay quanh vấn đề phát triển trí tuệ nhân tạo, công ty cũng đặt ra một số câu hỏi về vấn đề đạo đức khi phát triển công nghệ này. Vào năm 2018, Google đã thiết lập một loạt các hướng dẫn đạo đức và nguyên tắc về AI, cách tạo ra AI cũng như những gì nó có thể được sử dụng để làm. Nói tóm gọn là Google muốn đảm bảo công việc của mình trong việc phát triển AI là vì lợi ích của xã hội, an toàn và tôn trọng quyền riêng tư trong khi tuân theo các phương pháp hiệu quả nhất cho những thứ như kiểm tra dữ liệu và thiết lập mô hình. Cuối cùng, Google tuyên bố sẽ không theo đuổi các ứng dụng AI có khả năng được sử dụng để gây hại cho người khác (như trong vũ khí), để giám sát hoặc vi phạm pháp luật.

Quá trình xây dựng LaMDA AI

LaMDA được xây dựng dựa trên một loại kiến trúc thần kinh có tên là Transformer mà Google đã phát minh ra vào năm 2017. Công cụ này nhanh chóng trở nên phức tạp hơn, nhưng về cơ bản Transformer mang lại lợi thế về cả hiệu suất đào tạo (thời gian xây dựng mô hình) và độ chính xác so với các mô hình nơ-ron lặp lại và tích tụ (các hệ thống máy học điển hình) khi nói đến xử lý ngôn ngữ.


Thay vì dựa vào phân tích từng bước của đầu vào văn bản, Transformer phân tích đồng thời toàn bộ các câu và có thể mô hình hóa các mối quan hệ giữa chúng để hiểu rõ hơn về ý nghĩa theo ngữ cảnh. Và vì nó thực hiện phân tích toàn cảnh cùng lúc, nên nó cần ít bước hơn để thực hiện công việc của mình - càng ít bước trong mô hình máy học, bạn càng có nhiều khả năng đào tạo nó làm tốt công việc của mình.

Vào năm 2020, Google đã giới thiệu chatbot hỗ trợ AI thực sự đầu tiên được xây dựng trên công nghệ này, có tên là Meena .


Cuộc hội thoại của người thực với chatbot Meena

Meena đã được đào tạo về 341 GB văn bản "được lọc từ các cuộc trò chuyện trên mạng xã hội công cộng", có nghĩa là nó đã học được sắc thái của cuộc trò chuyện từ một số ví dụ khó nhất nhưng chân thực nhất có thể. Không ai trong chúng ta dễ dàng có cơ hội tiếp xúc với nó, nhưng một phân tích bảng điểm được cung cấp trong bài báo học thuật (xem tại đây) cho thấy đôi khi Meena có thể trông giống con người như thế nào, thể hiện mọi thứ "trần tục" như một sự tò mò khi xem các bộ phim cụ thể. Tất nhiên, nó vẫn có những nhược điểm nhất định.

Meena có thể không phức tạp như LaMDA, nhưng đó là một bước cần thiết để chứng minh rằng một chatbot mở có thể hiểu rõ hơn về sắc thái của cách chúng ta sử dụng ngôn ngữ và trả lại câu trả lời có ý nghĩa, có cảm tính - hoặc ít nhất là "hợp lý và cụ thể giống như của con người".

Mặc dù tính đến thời điểm hiện tại, Meena có tới 2,6 tỷ tham số, nhưng vẫn chưa là gì khi so sánh với LaMDA AI (sở hữu tới 137 tỷ tham số) hay PaLM là 540 tỷ tham số.

Cách thức hoạt động của LaMDA

Vào tháng 1 năm 2022, vài tháng trước khi diễn ra I / O 2022, Google đã công bố thông tin chi tiết hơn về cách thức hoạt động của LaMDA và mô hình ngôn ngữ của nó, mô tả tiến trình và sự phát triển đã đạt được cho đến nay trên Blog AI.


LaMDA được tạo ra để đáp ứng một loạt số liệu của những người đánh giá mà các chatbot trước đây gặp khó khăn. Những thứ như tính nhất quán bên trong của các câu trả lời và mức độ bất ngờ của các câu trả lời tương ứng với điểm SSI (Độ nhạy, Tính cụ thể và Sự thú vị). Thay vì chỉ đáp ứng kỳ vọng, nó có thể tạo ra một trò đùa hoặc cung cấp thông tin chi tiết thực sự? Và câu trả lời của nó thực tế và thông tin như thế nào?

Sử dụng những điều này làm thước đo về bản chất, nhắm mục tiêu tạo ra một chatbot có vẻ giống con người - Google đã đào tạo các mô hình của LaMDA trên một tập dữ liệu khổng lồ, cố gắng giúp nó dự đoán các thành phần tiếp theo của câu. Về cốt lõi, LaMDA là một trình tạo ad-lib nhằm điền vào chỗ trống những chi tiết mà con người sẽ thích. Sau đó, mô hình được tinh chỉnh cho các ứng dụng khác để mở rộng khả năng "phát triển" của nó, đồng thời được đào tạo thêm bằng cách sử dụng tập dữ liệu hội thoại về cuộc trò chuyện qua lại giữa hai người thật. Nói tóm lại, nó đi từ điền vào chỗ trống để điền vào câu, được đào tạo để bắt chước các cuộc trò chuyện thực tế.


Cách LaMDA tạo ra nhiều câu trả lời khác nhau

Giống như nhiều hệ thống dựa trên máy học, thay vì tạo ra một phản hồi duy nhất, LaMDA tạo ra nhiều phương án và dùng hệ thống xếp hạng nội bộ để chọn cái tốt nhất, vì vậy khi được hỏi một câu hỏi, nó không "suy nghĩ" theo một con đường duy nhất đối với một câu trả lời, nó tạo ra một số câu trả lời và chọn cái nào có điểm SSI cao nhất để đưa ra câu trả lời thú vị, sâu sắc và tò mò nhất.

Cuối cùng, các phản hồi của LaMDA có thể đánh bại các phản hồi trung bình của con người về chỉ số mức độ thú vị trong thử nghiệm của Google và tiến rất gần đến các chỉ số về độ hợp lý, tính cụ thể và an toàn (mặc dù vẫn còn thiếu trong các lĩnh vực khác).

Câu hỏi lớn mà mọi người đang đặt ra: LaMDA đang trở nên "có cảm tính" như con người?

Như với hầu hết các vấn đề triết học khoa học đại chúng, các ý kiến (và chất lượng của chúng) khác nhau. Nhưng bây giờ bức màn đã được vén lên về cách thức hoạt động của LaMDA. Ở cấp độ cơ bản, LaMDA không chỉ là một cỗ máy dựa trên phần mềm; đó là một cỗ máy được tạo ra và đào tạo một cách rõ ràng để đưa ra những câu trả lời giống con người nhất có thể thông qua một quá trình lựa chọn nhằm mục đích làm hài lòng con người theo đúng nghĩa đen. Đó là mục tiêu được thể hiện ở đây, vì vậy chúng ta có nên ngạc nhiên nếu nó thành công trong việc thực hiện điều đó?

Bản tính dễ chịu của con người cũng có khả năng thích nghi cao. Vào năm 2021, khi LaMDA còn ở giai đoạn sơ khai, CEO Google nhấn mạnh rằng "LaMDA có thể thực hiện một cuộc trò chuyện bất kể chúng ta nói về điều gì". Nếu bạn có một mô hình được đào tạo với tất cả dữ liệu mà nó có thể được cung cấp, và bao gồm cả khoa học viễn tưởng, thì có ngạc nhiên không khi nó sẽ trả lời các câu hỏi về một đối tượng nếu hướng của cuộc trò chuyện và các câu hỏi rõ ràng đang dẫn theo hướng đó? LaMDA rõ ràng được tạo ra để phù hợp với vai trò và nếu bạn giao cho nó vai trò của một cỗ máy có tri giác, nó sẽ cố gắng thực hiện.

Bộ não và cơ thể của chúng ta sẽ ra sao nếu không phải là những cỗ máy sinh học chạy phần mềm dựa trên DNA? Đó là một trong những lý do tại sao nhiều nhà tương lai học đã quan tâm đến chủ đề AI trong nhiều thập kỷ. Rốt cuộc, cách duy nhất mà chúng ta thực sự phải thể hiện tình cảm của mình với nhau là thông qua cách chúng ta tương tác.

LaMDA thực sự không có bộ nhớ hoạt động như con người. Mô hình của nó được đào tạo để tạo ra các câu trả lời "có ý nghĩa trong ngữ cảnh và không mâu thuẫn với bất kỳ điều gì đã nói trước đó", nhưng ngoài việc được đào tạo, LaMDA không thể thu nhận kiến thức mới hoặc lưu trữ mọi thứ theo cách tồn tại giữa các cuộc trò chuyện. Mặc dù LaMDA có thể đưa ra những tuyên bố trái ngược khi được hỏi trong một số trường hợp, nhưng nó không thể tự học theo cách kéo dài, hạn chế trí thông minh và không thể "chạy" khi không có đầu vào. Vì vậy, LaMDA "dường như" không có tri giác hoặc cảm tính giống con người.

Xem thêm:

TECHRUM.VN / THEO: RYNE HAGER (Android Police)
 
Sửa lần cuối:

G_Nam

Member
Tham gia
6/9/21
Bài viết
59
Được thích
16
#2
Làm quá lên công nghệ Al nếu như không có con người điều khiển thì nó vẫn là cổ máy vô tri. Mắc mệt
 

WilliamW

New Member
Tham gia
24/6/22
Bài viết
2
Được thích
0
#3
Is Ox Essays legit? Technically, the company is safe, but the reality is commonly different. As reviewed by students, dealing with the service, you should be ready for the most unexpected outcomes.
 

cashatm

Member
Tham gia
30/10/22
Bài viết
80
Được thích
0
#4
[email protected]

jokerstashaQllDARKNET<kstuff<coin13<Badb<xstuff<shopadmin<

Track2.name^ Kstuff.biz^Badb.cc^Bulba.cc^Badb.su^coin13.us^2pac.cc"^®Badb.ru^

FULLZ US SSN+DL USA Fullz [ Full Name / SSN + DOB / Driver License with State

Name =mmn=Ein=Employer=Salary income/ Address / ZIP / Phone / Email ]

%B4910051030702405^YAMAN/RAMAZAN ^26121260302800604000000?
;4910051030702405=26121260302860400000?
+015001580072866189079=0047500750063358351000001200000181874083=00000002500250341

100702488806341
PIN:0854

This is arqidarknet from

torre,zorldcard, market pro,

I sell first hand pos data,atm datas,resellers welcome,
usable pos,atm
dumps+password 6 digits and 4 digits.
Duouble and single track 100% live approval
Bank logins with email and phone access with cookies from the computer.

PAYPAL, MT103 DEALS
bank logs,email access,password
RDP
hack bibbles
Cvv=address
eu-usa-asia

fENTANYL pathes=powder
ships worldwide
CARFENTANIL 1kg
Heroin
Delivery world wide

minimum order is 10pieces

no test for new clients* consideration could be consider on basis.

make money with bank tools,risk and be rich.better than die poor!!

Wu logs to use make online money transfer in stock

fullz+full info+DL+mmn+dob+employer+scan+scoe 800-850
美国/加拿大/巴西 101-201 80 美元,如果您多买可享受 30% 的折扣


亚洲/中国 101/201 每件 350 美元,多买 30% 折扣
JCB $250

四位密码=$250

密码六位= $500

我不退还或更换出售前在检查器上检查过的数据,

更换未在检查器上检查的坏卡={三小时,PASSWORD 数据替换必须证明从 ATM 收到}

===== ONLY THE STRONGEST=====

WOULD YOU RATHER JOIN THE GAME?

1RULE===ASK 4 TEST GET IGNORED=====

minimum order is 10pieces

no test for new clients* consideration could be consider on basis.

make money with bank tools,risk and be rich.better than die poor!!

Looking for real supplier OF(TRACK1-TRACK2-TRACK3)Dumps Datas,Pos,skimmers,logs

etc? Dont look no more,quality is expensve and very reliable supplier
.visit the trading platform for market exchange with great reputation.


ti.com
Holder address, Holder name, Last 4 digits of account number,
CitiBusiness® / AAdvantage® Platinum Select® MasterCard®-6355 $7,655.59
American Airlines Rewards 170,254 Miles
Available revolving credit $1,544.41
$7,655.59
673
skr.sh/s71yVQuIh Track2.name^ Kstuff.biz^Badb.cc^Bulba.cc^Badb.su^coin13.us^2pac.cc"^®Badb.ru^

Free forum : Emv Chip Решение Перерыв

Dump Data+Password (4 digit) (6

digit)
Unionpay- Discover-Dinnerscard-JCB
VISA-MASTERCARD-GOLD-CLASSIC
 

Theo dõi Youtube

Thành viên online

Quảng Cáo

Quảng Cáo

Có thể bạn quan tâm

Top Bottom