'머신러닝'에 해당되는 글 4건

  1. 2018.04.21 Microsoft 번역 앱, 보다 정밀한 오프라인 번역 지원 by 랩터 인터내셔널
  2. 2018.04.14 구글, 동영상 음성에서 하나의 음성만 분리하는 기술 발표 by 랩터 인터내셔널
  3. 2016.11.18 인공지능 시대의 인텔, 2020년까지 딥러닝 성능을 100배로 by 랩터 인터내셔널
  4. 2016.05.19 구글, 기계 학습을 고속화하는 TPU 전용칩 자체 개발 by 랩터 인터내셔널

세계 1위 소프트웨어 기업 마이크로소프트(Microsoft)는 자사가 제공하는 번역 앱에 뉴럴 네트워크 기술을 이용한 오프라인 번역 기능 추가를 발표하며 오프 라인에서도 보다 정밀한 번역을 지원하기 시작했다.


이번 오프 라인 언어 팩에 뉴럴 네트워크로 기술된 것으로 기존 언어 팩과 비교해 번역 품질을 23%을 향상시키면서 동시에 파일 용량은 약 50% 정도 절감을 실현했다. 마이크로소프트는 2016년부터 기계 번역에 뉴럴 네트워크 기술을 응용하기 시작해 당초 완전히 클라우드 측에서 처리하여 브라우저에서 제공, 2017년에는 인공지능 가속기를 탑재한 안드로이드 단말기에 로컬 실행으로 적용했다.


오늘날 CPU의 고성능화와 알고리즘 최적화로 이번에 AI 칩을 갖지 않는 iOS, Android, Amazon Fire 단말기에서도 이용이 가능하며 윈도우용에 가까운 수준으로 제공한다.

반응형
Posted by 랩터 인터내셔널


구글이 여러 소음 속에서 특정 사람의 음성만을 분리하는 기술을 개발했다고 발표했다.


이 기술의 베이스는 인공지능 머신러닝으로 구글은 유튜브에 업로드되어 있는 10만개의 고화질 동영상 중 BGM이나 소음 등이 없고 화자의 얼굴이 비치며 이야기하고 있는 장면을 2000시간 분량 추출했다. 이어 이들 동영상의 음성을 의도적으로 구성하여 소음 속에서 누군가 말하는 상황을 가상적으로 만들어 냈다.


이 데이터를 사용하여 뉴럴 네트워크 기반 모델을 훈련시켜 머신에 다시 화자별 음성을 분리시키도록 함으로써 소음 속의 동영상에서 특정인의 목소리만 추출할 수 있도록 했다. 이 기술은 영상 정보도 중요하여 머신 영상 속에서 화자의 입이 움직이고 있음을 인식함으로써 음성 추출의 확률을 높이고 있다.


이 기술을 이용하여 화자의 얼굴이 비치고 있는 동영상에서 임의의 인물을 선택함으로써 다른 사람의 음성을 줄이면서 그 인물만의 음성을 정확하게 들을 수 있다.

반응형
Posted by 랩터 인터내셔널

인텔은 미국 샌프란시스코 시내에서 AI(인공지능) 전략에 관한 기자 회견 "Intel AI Day"를 갖고 머신 러닝, 딥-러닝 등의 새로운 컴퓨팅 모델을 활용해 AI를 실현하는 반도체, 소프트웨어에 관한 발표를 진행했다.


인텔이 IA 전용 솔루션에 주력한다. 앞으로 제품 확충

기자 회견 모두 발언에서 인사에 선 Intel CEO의 브라이언 크르자니크는 "현재 수십 억의 스마트 기기가 인터넷에 접속되고 있으며 앞으로도 증가한다. AI는 그러한 스마트 커넥티비티 디바이스에 있어서 매우 중요한 기술이다. 인텔은 그런 AI를 위한 완전한 솔루션을 한방에 제공하고 있으며 향후 이를 확대한다" 며 다양한 차원에서 AI용 반도체와 소프트웨어 등을 제공하고 IoT 기기용 반도체(Atom 프로세서 등), 5G를 위한 통신 솔루션, 클라우드 측에서 머신-러닝이나 딥-러닝에 이용되는 반도체(Xeon, Xeon Phi 등)의 클라이언트, 통신 서버 등 IoT 생태계 전체에 반도체를 제공할 수 있는 것이 강점이라고 강조했다.


03.jpg



AI용 반도체 하면 일반적으로는 딥 러닝용 연산 등에 이용되고 있는 GPU 등의 범용 프로세서가 잘 알려져 있지만 실제로는 딥-러닝은 머신 러닝의 한가지 방법이며 CPU를 이용한 머신 러닝도 비슷하게 중요한 요소다. CPU, 특히 클라우드 서버는 사실상 IA(Intel Architecture, 이른바 x86) 중 택일로 머신 러닝이라는 큰 매듭으로 보면 인텔은 머신 러닝 시장에서 강한 존재감을 갖고 있다.

크르자니크는 "딥 러닝은 물론 중요하지만 스몰 세트다. AI는 확장성이 있는 것으로 GPU 만이 성능을 결정하는 것이 아니다" 며 인텔 아키텍처의 AI 중요성을 강조하면서 향후 인텔이 지금보다 강한 AI를 약속하겠다고 강조했다. 크르자니크는 지난 1년간 Saffron Technology, Movidius, Nervana Systems 등의 AI 관련 기술을 가진 기업을 인수하면서 AI 관련 포트폴리오를 늘려 왔다고 밝혔다.

05.jpg


그 위에서 Nervana System CEO를 무대로 부르며 인텔과 Nervana의 향후 전략에 대해서 설명했다. 이 가운데 크르자니크는 Nervana의 자산과 인텔의 기존 자산을 통합하고 앞으로 AI용 반도체와 소프트웨어 등의 플랫폼을 "Intel Nervana platform"으로 전개하겠다고 밝혔다.


09.jpg


크르자니크는 "중요한 것은 신뢰성이다. 인텔은 신뢰성 높은 AI 플랫폼을 향후로도 제공한다" 며 향후 인텔이 AI를 중요한 비즈니스의 하나로 파악하여 힘을 넣겠다는 방향성을 강조했다.

2020년까지 현재보다 100배 웃도는 딥 러닝 솔루션 투입

크르자니크에 이어 등단한 것은 인텔의 다이앤 브라이언트. 그는 "2020년에는 AI에 필요한 컴퓨팅 파워는 지금보다 12배로 확대할 것으로 예상된다" 며 AI에 필요한 연산 능력이 늘어나기 때문에 이에 대처할 필요가 있다고 밝혔다.



11.jpg


여기서 인텔의 새로운 AI를 위한 전략 중 하나로 구글과의 협업에 대해서 발표했다. Google은 AlphaGo와 DeepMind 같은 AI을 개발하고 딥 러닝 프레임워크에서 톱 쉐어 TensorFlow를 제공하는 등 AI 세계에서 선두를 달리고 있다. 브라이언트가 불러 등단한 구글의 엔터프라이즈 담당 수석 부사장 다이앤 그린은 "인텔은 그 동안 서버 개발 등에 협력했지만 차세대 개발도 함께 한다. TensorFlow를 IA에 최적화 하고 딥 러닝 학습 등에 대해서도 최적화한다. 또 IoT 보안 확보에서도 협업하겠다" 며 인텔과 AI 개발 환경의 확충 등에서 협력하겠다고 밝혔다.


16.jpg



그는 "2016년 마지막 시점으로 예측하면 94%의 AI 서버가 GPU가 없는 IA 서버다. 앞으로도 AI용 IA 솔루션을 점차 강화하고 싶다"며 인텔이 제공하고 있는 IA용 반도체 제품을 향후로도 적극적으로 확충할 것이라고 밝혔다. 그런 AI용 인텔의 제품으로 그는 Xeon E5, Xeon Phi, Xeon+FPGA, 또 이번에 새로 발표된 딥 러닝용 액셀러레이터 4가지를 꼽았다.


13.jpg


Xeon E5 등 Xeon프로세서는 현재 데이터 센터에서 이용되는 클라우드 서버의 대다수에서 채용되고 있는 CPU다. 그는 그 Xeon E5의 차세대 버전으로 계획하고 있는 "Skylake-EP"를 언급하면서 초기 개발 버전의 출하를 시작했다고 밝혔다. AVX512 등의 새로운 명령 세트, 부동 소수점 연산 기능의 확장 등으로 성능이 향상됐으며 Apache Spark를 이용하면 성능은 18배나 된다고 한다. 또한 제품 버전은 2017년 중반 출하를 상정하고 있다고 설명했다.


17.jpg


Xeon Phi에 대해서는 올해(2016년) 발표한 나이츠 랜딩(Knights Landing)을 설명하며 "Knights Landing으로 현 시점에서 최대 32노드까지 연결이 가능해 학습 성능은 31배나 된다. 또, 메모리는 GPU에 16GB까지 밖에 이용할 수 없지만 Knights Landing은 최대 400GB까지 이용할 수 있다" 며 GPU에 비해 스케일 아웃으로 불리는 복수의 노드를 연결하여 병렬로 실행함으로써 더 높은 성능을 실현할 수 있다고 강조했다. 또 8월에 열린 IDF에서 발표한 차세대 제품인 나이츠 밀(Knights Mill)에 대해서도 설명하며 배정밀도, 단정밀도에 반정밀도 부동 소수점 연산 지원 등으로 현행 Kights Landing에 비해 4배의 딥 러닝 성능을 실현하겠다고 강조했다.


18.jpg


이어 그는 인텔이 인수한 Nervana가 개발한 딥 러닝용 엑셀러레이터 칩으로 "LAKE CREST"(개발 코드 네임)을 발표하면서 2017년 상반기에 투입하겠다고 밝혔다. Xeon 프로세서에 그 딥 러닝용 액셀러레이터 칩을 통합한 "Knights Crest"(나이츠 크레스트, 개발 코드 네임) 계획도 밝혔다(투입 시기는 발표가 없었다). 그는 "인텔은 딥 러닝에 걸리는 시간을 현재 가장 빠른 GPU와 비교해 100분의 1로 가능하게 하는 솔루션을 제공한다" 며 인텔이 지금까지 딥 러닝에서 최고라고 불리는 엔비디아 GPU에 대한 도전장을 내밀었다.


출처 - http://pc.watch.impress.co.jp/docs/news/1030714.html

반응형
Posted by 랩터 인터내셔널

 

 

Google은 18일, 기계 학습 알고리즘의 고속화에 특화된 커스텀 ASIC에 의한 자체 개발 칩 Tensor Processing Units(TPU)을 자사의 데이터 센터에서 이용하고 있다고 블로그에서 밝혔습니다.


TPU는 Google이 오픈 소스로서 제공하고 있는 기계 학습용 프레임워크 TensorFlow를 고속으로 동작시키기 위한 커스텀 칩으로서 기계 학습은 Google이 제공하는 서비스 중 스트리트 뷰, 음성 검색 결과를 처리하는 RankBrain, Inbox의 스마트 답장 등 100개 이상의 항목에 이용되고 있습니다.


TPU는 이미 1년 이상 구글의 데이터 센터에서 가동되어 기계 학습용으로 최적화가 진행 중이며 Google이 3월부터 제공하고 있는 개발자용 클라우드형 기계 학습 플랫폼 Google Cloud Machine Learning과 바둑 세계 챔피언 이세돌에게 압승한 알파고(AlphaGo)에 이용되고 있다고 밝혔습니다.


tpu-1.png
Server racks with TPUs used in the AlphaGo matches with Lee Sedol

반응형
Posted by 랩터 인터내셔널