EITC/AI/DLPP Profunda Lernado kun Python kaj PyTorch estas la eŭropa IT-Atestada programo pri la fundamentoj de programado de profunda lernado en Python kun PyTorch-maŝinlernada biblioteko.
La instruplano de la Profunda Lernado EITC/AI/DLPP kun Python kaj PyTorch fokusiĝas al praktikaj kapabloj en profunda lernado de Python-programado kun PyTorch-biblioteko organizita ene de la sekva strukturo, ampleksante ampleksan vidbendan didaktikan enhavon kiel referencon por ĉi tiu EITC-Atestado.
Profunda lernado (ankaŭ konata kiel profunda strukturita lernado) estas parto de pli vasta familio de maŝinlernaj metodoj bazitaj sur artefaritaj neŭralaj retoj kun reprezenta lernado. Lernado povas esti kontrolata, duone kontrolata aŭ ne kontrolata. Profundaj lernaj arkitekturoj kiel profundaj neŭralaj retoj, profundaj kredaj retoj, ripetiĝantaj neŭralaj retoj kaj konversaciaj neŭralaj retoj estis aplikitaj al kampoj inkluzive de komputila vizio, maŝinvido, parolrekono, naturlingva prilaborado, aŭdorekono, socifila filtrado, maŝina traduko, bioinformadiko , drog-projektado, medicina bild-analizo, materiala inspektado kaj tabulludaj programoj, kie ili produktis rezultojn kompareblajn al kaj en iuj kazoj superantaj homajn spertajn agadojn.
Python estas interpretita, altnivela kaj ĝeneraluzebla programlingvo. La projektofilozofio de Python emfazas kodan legeblecon per sia rimarkinda uzo de signifa blanka spaco. Ĝiaj lingvaj konstruoj kaj objektema aliro celas helpi programistojn verki klaran, logikan kodon por malgrandaj kaj grandskalaj projektoj. Python ofte estas priskribita kiel lingvo "inkluzivita de piloj" pro sia ampleksa norma biblioteko. Python estas ofte uzata en projektoj pri artefarita inteligenteco kaj projektoj pri maŝinlernado helpe de bibliotekoj kiel TensorFlow, Keras, Pytorch kaj Scikit-learn.
Python estas dinamike tajpata (plenumante dum rultempa multaj oftaj programaj kondutoj, kiujn statikaj programlingvoj plenumas dum kompilo) kaj kolektita de rubo (kun aŭtomata memora administrado). Ĝi subtenas multoblajn programajn paradigmojn, inkluzive de strukturita (precipe, procedura), objektema kaj funkcia programado. Ĝi estis kreita fine de la 1980-aj jaroj, kaj unue eldonita en 1991, de Guido van Rossum kiel posteulo de la programlingvo ABC. Python 2.0, eldonita en 2000, enkondukis novajn funkciojn, kiel listkomprenoj, kaj rubkolektan sistemon kun referenca kalkulado, kaj estis nuligita kun versio 2.7 en 2020. Python 3.0, publikigita en 2008, estis grava revizio de la lingvo, kiu estas ne tute malantaŭen-kongrua kaj multe da Python 2-kodo ne funkcias senŝanĝe en Python 3. Kun la fino de vivo de Python 2 (kaj pip forlasis subtenon en 2021), nur Python 3.6.x kaj pli poste estas subtenataj, kun pli malnovaj versioj ankoraŭ subtenantaj ekz-e Windows 7 (kaj malnovaj instaliloj ne limigitaj al 64-bita Vindozo).
Python-interpretistoj estas subtenataj por ĉefaj operaciumoj kaj haveblaj por kelkaj pli (kaj en la pasinteco subtenis multajn pli). Tutmonda komunumo de programistoj disvolvas kaj prizorgas CPython, senpagan kaj liberfontan referencan efektivigon. Neprofitcela organizo, Python Software Foundation, administras kaj direktas rimedojn por Python kaj CPython-disvolviĝo.
En januaro 2021, Python okupas la trian lokon en la indekso de plej popularaj programlingvoj de TIOBE, malantaŭ C kaj Java, antaŭe gajnis duan lokon kaj ilian premion por la plej granda populareca gajno por 2020. Ĝi estis elektita Programlingvo de la Jaro en 2007, 2010 , kaj 2018.
Empiria studo trovis, ke skriptaj lingvoj, kiel Python, estas pli produktivaj ol konvenciaj lingvoj, kiel C kaj Java, por programi problemojn kun ĉenmanipulado kaj serĉado en vortaro, kaj determinis, ke memora konsumo ofte "pli bonas ol Java kaj ne multe pli malbone ol C aŭ C ++ ”. Grandaj organizoj, kiuj uzas Python, inkluzivas Vikipedio, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.
Krom ĝiaj artefaritaj inteligentecaj aplikoj, Python, kiel skripta lingvo kun modula arkitekturo, simpla sintakso kaj riĉaj tekstoprilaboraj iloj, estas ofte uzata por naturlingva prilaborado.
PyTorch estas malfermfonta maŝina lernada biblioteko surbaze de la Torĉa biblioteko, uzata por aplikoj kiel komputila vizio kaj naturlingva prilaborado, ĉefe disvolvita de la Fako de Esplorado de AI de Facebook (FAIR). Ĝi estas senpaga kaj malfermfonta programaro publikigita sub la permesilo Modified BSD. Kvankam la Python-interfaco estas pli polurita kaj la ĉefa fokuso de disvolviĝo, PyTorch ankaŭ havas C ++-interfacon. Kelkaj pecoj de Deep Learning-programoj estas konstruitaj supre de PyTorch, inkluzive de Tesla Aŭtomata Piloto, Pyro de Uber, Transformiloj de HuggingFace, PyTorch Lightning kaj Catalyst.
- Tensora komputado (kiel NumPy) kun forta akcelo per grafikaj prilaboraj unuoj (GPU)
- Profundaj neŭralaj retoj konstruitaj sur bendo-bazita aŭtomata (komputila) diferenciga sistemo
Facebook funkciigas kaj PyTorch kaj Konvolutan Arkitekturon por Rapida Trajta Enigo (Caffe2), sed modeloj difinitaj de la du kadroj estis reciproke malkongruaj. La projekto Open Neural Network Exchange (ONNX) estis kreita de Facebook kaj Microsoft en septembro 2017 por konverti modelojn inter kadroj. Caffe2 estis kunfandita en PyTorch fine de marto 2018.
PyTorch difinas klason nomatan Tensor (torĉo. Tensor) por stoki kaj funkcii sur homogenaj plurdimensiaj rektangulaj tabeloj de nombroj. PyTorch-Tensoroj similas al NumPy Arrays, sed ankaŭ povas esti operaciitaj per CUDA-kapabla Nvidia GPU. PyTorch subtenas diversajn subtipojn de Tensoroj.
Estas malmultaj gravaj moduloj por Pytorch. Ĉi tiuj inkluzivas:
- Aŭtograda modulo: PyTorch uzas metodon nomatan aŭtomatan diferencigon. Registrilo registras, kiajn operaciojn plenumis, kaj tiam ĝi ripetas ĝin malantaŭen por kalkuli la gradientojn. Ĉi tiu metodo estas speciale potenca dum konstruado de neŭralaj retoj por ŝpari tempon sur unu epoko kalkulante diferencigon de la parametroj ĉe la antaŭa paŝo.
- Optim-modulo: torch.optim estas modulo, kiu efektivigas diversajn optimumigajn algoritmojn uzatajn por konstrui neŭralajn retojn. Plej multaj el la ofte uzataj metodoj jam estas subtenataj, do ne necesas konstrui ilin de nulo.
- nn-modulo: PyTorch-aŭtogrado faciligas difini komputilajn grafeojn kaj preni gradientojn, sed kruda aŭtogrado povas esti iom tro malalta por difini kompleksajn neŭralajn retojn. Jen la modulo nn povas helpi.
Por konatigi vin detale kun la atesta instruplano, vi povas pligrandigi kaj analizi la suban tabelon.
La EITC/AI/DLPP Profunda Lernado kun Python kaj PyTorch Certification Curriculum referencoj al liberaj didaktikaj materialoj en videoformo de Harrison Kinsley. Lernadprocezo estas dividita en paŝon post paŝo strukturo (programoj -> lecionoj -> temoj) kovrante koncernajn instruplanajn partojn. Senlima konsultado kun domajnaj fakuloj ankaŭ estas provizita.
Por detaloj pri la Atestprocedo kontrolu Kiel ĝi funkcias.
Elŝutu la kompletajn eksterretajn memlernajn preparajn materialojn por la programo EITC/AI/DLPP Deep Learning kun Python kaj PyTorch en PDF-dosiero
EITC/AI/DLPP-preparaj materialoj - norma versio
EITC/AI/DLPP-preparaj materialoj - plilongigita versio kun reviziaj demandoj