Data science

Cách các cụm đồng bộ có thể giảm lượng khí thải carbon của máy học

Các ứng dụng thương mại và công nghiệp của trí tuệ nhân tạo và máy học đang mở ra các cơ hội kinh tế, thay đổi cách chúng ta kinh doanh và thậm chí giúp giải quyết các vấn đề xã hội và môi trường phức tạp. Trên thực tế, các ứng dụng chung của công nghệ này đã trở thành công cụ cho sự bền vững của môi trường. Với khả năng phân tích và đưa ra dự đoán của máy học bằng cách sử dụng nguồn dữ liệu khổng lồ, các ứng dụng này hiện có thể lập mô hình chính xác về biến động và biến đổi khí hậu, để cơ sở hạ tầng năng lượng và mức tiêu thụ năng lượng có thể được thiết kế lại cho phù hợp. Trớ trêu thay, việc đào tạo các mô hình quy mô lớn thông qua mạng nơ ron sâu đòi hỏi sức mạnh tính toán lớn. Nó cũng tạo ra rất nhiều năng lượng nhiệt từ mỗi đơn vị xử lý đồ họa liên quan (GPU) hoặc đơn vị xử lý tensor (TPU) được sử dụng. Động lực để đạt được mức độ chính xác cao đã thay thế nỗ lực giảm lượng khí thải carbon của máy học. Trên thực tế, sức mạnh tính toán cần thiết để đào tạo các mô hình AI lớn nhất cho mỗi chu kỳ đã tăng gấp đôi sau mỗi 3,4 tháng kể từ 2012. Do đó, ngày càng có nhiều sự hỗ trợ cho việc tìm kiếm AI và các phương pháp học máy ít tốn năng lượng hơn rất nhiều. Một trong những phương pháp như vậy là tập hợp, trong đó những đổi mới gần đây trong mô hình học tập đã giảm bớt thách thức trong việc thiết lập và vận hành loại thuật toán này. Mặc dù chúng đã xuất hiện từ lâu, nhưng các tính năng đồng bộ đang trở lại có tầm quan trọng vì chúng không chỉ làm giảm sự phức tạp trong tính toán mà còn giảm thiểu chi phí kinh tế và môi trường nặng nề thường liên quan đến AI. Hệ sinh thái mới xuất hiện của các tập hợp Học tập theo nhóm cải thiện kết quả học máy bằng cách kết hợp một số mô hình, thay vì sử dụng một mô hình duy nhất, để giảm phương sai và cải thiện tính tổng quát. Sử dụng các mô hình đa dạng giúp đạt được hiệu suất dự đoán tốt hơn. Về bản chất, những người học yếu được gộp lại với nhau để tạo thành một người học mạnh, dẫn đến dự báo chính xác hơn. Chúng ta không cần tìm đâu xa hơn các cuộc thi khoa học dữ liệu gần đây để xem các phương pháp tổng hợp đã được sử dụng thành công như thế nào để giải quyết các vấn đề khó khăn. Các ứng dụng trong thế giới thực cũng đã được dự đoán trước khi xem xét rằng các nhà nghiên cứu đã sử dụng tập hợp các mạng thần kinh sâu để dự báo các điểm nóng về cháy rừng ở Úc, bao gồm tần suất và cường độ của chúng. Các dự đoán chính xác 91% và đã giúp mở đường cho nghiên cứu khoa học nhằm hiểu rõ hơn về vấn đề khí hậu của Úc. Khi đào tạo mạng nơ-ron sâu, kết quả thường là các mạng con có kích thước nhỏ hơn nhiều và tập trung vào một nhiệm vụ cụ thể. Các mạng nhỏ hơn đó mất ít thời gian đào tạo hơn và trong nhiều trường hợp vì chúng được nhắm mục tiêu cao, chúng không yêu cầu đào tạo thêm như trường hợp với các ứng dụng ít hữu hạn hơn. Vì lý do này, chúng ta đang bắt đầu thấy việc sản xuất các mạng con nhỏ hơn và việc tạo ra một hệ sinh thái gồm các nhóm tổng hợp. Xu hướng này sẽ tăng tốc vì có nhiều lợi thế để gộp các mạng nhỏ hơn này và chỉ đào tạo lại một phần nhỏ theo yêu cầu. Những lợi thế không chỉ bao gồm khả năng giảm lượng khí thải carbon của máy học mà còn là lợi ích của việc chia sẻ các mô hình đào tạo nhỏ hơn, tinh chỉnh hơn để tạo ra các mô hình đào tạo lớn hơn và chính xác hơn đáng kể. Mặc dù hiện tại, các nhóm chủ yếu chỉ giới hạn ở các cây quyết định, nhưng nó đang mở rộng sang các phương pháp học máy khác với tính năng đóng gói và tăng cường hiện được coi là các kỹ thuật phổ biến nhất để xây dựng các nhóm. Đóng túi và rừng ngẫu nhiên là các thuật toán được thiết kế để giảm phương sai của các mô hình đào tạo và cải thiện độ chính xác của dự báo. Không giống như bỏ túi, tăng cường là một cách tiếp cận để chuyển đổi những người học yếu thành những người mạnh hơn bằng cách tăng độ phức tạp của các mô hình có độ lệch cao. Mặc dù các thuật toán học máy như thế này thường được thiết kế để cải thiện độ chính xác bằng cách giảm sai số, nhưng chúng không tính đến sự phân bố và tỷ lệ hoặc “sự cân bằng” của dữ liệu. Điều này là có vấn đề vì các thuật toán học máy có xu hướng tạo ra các mô hình phân loại – bộ phân loại cây quyết định, bộ phân loại dựa trên quy tắc, mạng nơ-ron và các kỹ thuật khác – không đáp ứng được với các bộ dữ liệu không cân bằng. Để các tập hợp thực sự hiệu quả, sẽ cần một thuật toán tự động cân bằng mới, một thuật toán học nhanh và có thể truy cập nhanh vào các mô hình con hoạt động tốt nhất trong tập dữ liệu. Nói tóm lại, chúng ta cần một phương pháp mới để “tập hợp” các mạng nơ-ron nhỏ hơn. Trong trường hợp này, những cải tiến mới hơn đối với mạng nơ-ron sử dụng các tổ hợp đang chứng tỏ là công cụ giải quyết tình thế tiến thoái lưỡng nan này. Hơn nữa, các tổ hợp cũng cung cấp khả năng cung cấp các bản cập nhật an toàn cho các mô hình học tập có thể được nhắm mục tiêu đến các bộ dữ liệu cụ thể và sau đó được xếp liền mạch thành một mạng nơ-ron chung. Một cách tốt hơn, có trách nhiệm hơn về phía trước Hãy xem xét rằng các trung tâm dữ liệu chịu trách nhiệm cho 3% lượng điện tiêu thụ toàn cầu, tương đương với khoảng 2% lượng khí thải nhà kính. AI và học máy sẽ có tác động lớn đến việc tiêu thụ năng lượng khi các ứng dụng của chúng ngày càng phát triển. Hiện tại, bản thân các trung tâm dữ liệu đang phát triển với tốc độ đáng kinh ngạc 20% mỗi năm. Về cơ bản, khi việc sử dụng rộng rãi hơn các cụm đồng bộ xuất hiện để đối phó với sự suy thoái môi trường do AI ngốn năng lượng và máy tính học máy gây ra, những người chơi trong ngành – cho dù họ là công ty vì lợi nhuận hay tổ chức nghiên cứu – chắc chắn sẽ xem xét tiết lộ mức tiêu thụ điện năng xung quanh việc tạo mô hình AI , và cũng phân loại thông tin thông qua các mô hình, tương tự như xếp hạng công suất và hiệu suất được áp dụng cho các thiết bị điện và gia đình ngày nay. Đây là một điều tốt. Đã đến lúc những nỗ lực nhằm hạn chế mức tiêu thụ năng lượng lớn của AI và học máy đang trở thành chủ đề nổi bật hơn trong cuộc tranh luận xung quanh đạo đức AI. Điều này sẽ xảy ra trong bối cảnh các quần thể đang nổi lên tầm quan trọng. Với khả năng tạo ra các mô hình học tập mạnh mẽ bằng cách sử dụng lượng dữ liệu nhỏ hơn và mạng nhỏ hơn và do đó sức mạnh tính toán ít hơn, các nhóm được thiết lập để giúp giảm tác động môi trường tổng thể của AI và học máy. Kevin Gidney là đồng sáng lập và CTO của Seal Software. Ông đã đảm nhiệm nhiều vị trí kỹ thuật cao cấp khác nhau tại Legato, EMC, Kazeon, Iptor và Open Text. Các vai trò của ông bao gồm quản lý, kiến ​​trúc giải pháp và kỹ thuật bán hàng trước, với kiến ​​thức nền tảng về điện tử và kỹ thuật máy tính, áp dụng cho cả giải pháp phần mềm và phần cứng.

  • Trang chủ
  • CRM
  • Email doanh nghiệp
  • Email marketing
  • Marketing News
  • Marketing tổng thể
  • SEO
  • Thiết kế Website
  • Web Hosting
  • Chatbot
  • Data science
  • Back to top button