Por ŝargi TensorFlow-Datumaron en Google Colaboratory, vi povas sekvi la paŝojn priskribitajn sube. TensorFlow Datasets estas kolekto de datumaroj pretaj por uzi kun TensorFlow. Ĝi provizas vastan gamon de datumaroj, igante ĝin oportuna por maŝinlernado taskoj. Google Colaboratory, ankaŭ konata kiel Colab, estas senpaga nuba servo provizita de Google, kiu permesas al uzantoj skribi kaj efektivigi Python-kodon en retumilo, kun aliro al GPUoj.
Unue, vi devas instali TensorFlow Datasets en via Colab-medio. Vi povas fari tion rulante la sekvan komandon en kodĉelo ene de via Colab kajero:
python !pip install -q tensorflow-datasets
Ĉi tiu komando instalas la bibliotekon de TensorFlow Datasets en via Colab-medio, ebligante vin aliri la datumajn arojn kiujn ĝi proponas.
Poste, vi povas ŝargi datumaron de TensorFlow Datasets uzante la sekvan Python-kodfragmenton:
python import tensorflow_datasets as tfds # Load the dataset dataset = tfds.load('dataset_name', split='train', as_supervised=True) # Iterate through the dataset for example in dataset: # Process the example pass
En la supra kodo, anstataŭigu `'dataset_name'' per la nomo de la datumaro, kiun vi volas ŝargi. Vi povas trovi liston de disponeblaj datumaroj foliumante la retejon de TensorFlow Datasets aŭ uzante la funkcion `tfds.list_builders()` en via kajero Colab.
La parametro `split` specifas kiun divido de la datumaro ŝarĝota (ekz., `'train'`, `'test'`, `'validation'`). Agordo `as_supervised=True` ŝarĝas la datumaron en opo `(enigo, etikedo)` formato, kiu estas kutime uzata en maŝinlernado taskoj.
Post ŝarĝo de la datumaro, vi povas ripeti ĝin por aliri individuajn ekzemplojn por plua prilaborado. Depende de la datumaro, vi eble bezonos antaŭprilabori la datumojn, apliki transformojn aŭ dividi ĝin en trejnadon kaj testajn arojn.
Gravas noti, ke iuj datumaroj povas postuli pliajn antaŭpretigajn paŝojn aŭ specifajn agordojn. Riferu al la dokumentaro de TensorFlow Datasets por detalaj informoj pri ĉiu datumaro kaj kiel efike labori kun ili.
Sekvante ĉi tiujn paŝojn, vi povas facile ŝargi TensorFlow-Datumaron en Google Colaboratory kaj komenci labori pri viaj maŝinlernado-projektoj uzante la riĉan kolekton de disponeblaj datumoj.
Aliaj lastatempaj demandoj kaj respondoj pri EITC/AI/GCML Google Cloud Machine Machine Learning:
- Kio estas teksto al parolado (TTS) kaj kiel ĝi funkcias kun AI?
- Kio estas la limigoj por labori kun grandaj datumaroj en maŝina lernado?
- Ĉu maŝinlernado povas fari iun dialogan helpon?
- Kio estas la ludejo TensorFlow?
- Kion fakte signifas pli granda datumaro?
- Kio estas kelkaj ekzemploj de hiperparametroj de algoritmo?
- Kio estas ensamble-lernado?
- Kio se elektita maŝinlernada algoritmo ne taŭgas kaj kiel oni povas certigi elekti la ĝustan?
- Ĉu maŝinlernada modelo bezonas superrigardon dum sia trejnado?
- Kiuj estas la ŝlosilaj parametroj uzataj en algoritmoj bazitaj en neŭralaj reto?
Rigardu pliajn demandojn kaj respondojn en EITC/AI/GCML Google Cloud Machine Learning