Por trovi la Iris-datumaron uzatan en la ekzemplo oni povas aliri ĝin per la UCI-Maŝina Lernado-Deponejo. La Iris-datumserio estas ofte uzata datumaro en la kampo de maŝinlernado por klasifiktaskoj, precipe en edukaj kuntekstoj pro sia simpleco kaj efikeco en montrado de diversaj maŝinlernado-algoritmoj.
La Maŝinlernada Deponejo de UCI estas vaste uzata rimedo en la maŝinlernado komunumo kiu gastigas diversajn datumarojn por esploro kaj edukaj celoj. La Iris-datumserio estas unu el la datumaroj haveblaj en la UCI-deponejo kaj facile alireblas por uzo en viaj maŝinlernadaj projektoj.
Por preni la Iris-datumaron de la UCI-Maŝina Lernado-Deponejo oni povas sekvi ĉi tiujn paŝojn:
1. Vizitu la retejon de UCI Machine Learning Repository ĉe https://archive.ics.uci.edu/ml/index.php.
2. Navigu al la sekcio "Dataseroj" en la retejo.
3. Serĉu la datumaron de Iris aŭ foliumante la disponeblajn datumarojn aŭ uzante la serĉfunkcion en la retejo.
4. Elŝutu ĝin en formato kongrua kun uzata maŝinlernado medio. La datumaro estas kutime havebla en CSV (Comma-Separated Values) formato, kiu povas esti facile importita en ilojn kiel la panda biblioteko de Python por datummanipulado kaj analizo.
Alternative, oni ankaŭ povas aliri la Iris-datumaron rekte per popularaj maŝinlernantaj bibliotekoj kiel ekzemple scikit-learn en Python. Scikit-learn disponigas enkonstruitajn funkciojn por ŝargi la datumaron de Iriso, igante ĝin oportuna por uzantoj aliri la datumaron sen devi elŝuti ĝin aparte.
Malsupre estas ekzempla kodfragmento en Python uzante scikit-learn por ŝarĝi la Iris-datumaron:
python from sklearn.datasets import load_iris # Load the Iris dataset iris = load_iris() # Access the features and target labels X = iris.data y = iris.target # Print the shape of the dataset print("Shape of the Iris dataset:", X.shape)
Funkciante la ĉi-supran kodpeceton oni povas ŝargi la Iris-datumaron rekte en la Python-medion uzante scikit-learn kaj komenci labori kun la datumaro por kelkaj manoj pri maŝinlernado-taskoj.
Aliaj lastatempaj demandoj kaj respondoj pri EITC/AI/GCML Google Cloud Machine Machine Learning:
- Kio estas teksto al parolado (TTS) kaj kiel ĝi funkcias kun AI?
- Kio estas la limigoj por labori kun grandaj datumaroj en maŝina lernado?
- Ĉu maŝinlernado povas fari iun dialogan helpon?
- Kio estas la ludejo TensorFlow?
- Kion fakte signifas pli granda datumaro?
- Kio estas kelkaj ekzemploj de hiperparametroj de algoritmo?
- Kio estas ensamble-lernado?
- Kio se elektita maŝinlernada algoritmo ne taŭgas kaj kiel oni povas certigi elekti la ĝustan?
- Ĉu maŝinlernada modelo bezonas superrigardon dum sia trejnado?
- Kiuj estas la ŝlosilaj parametroj uzataj en algoritmoj bazitaj en neŭralaj reto?
Rigardu pliajn demandojn kaj respondojn en EITC/AI/GCML Google Cloud Machine Learning