La Pusher-komponento en TensorFlow Extended (TFX) estas fundamenta parto de la TFX-dukto, kiu pritraktas la deplojon de trejnitaj modeloj al diversaj celmedioj. La deplojceloj por la Pusher-komponento en TFX estas diversaj kaj flekseblaj, permesante al uzantoj deploji siajn modelojn al malsamaj platformoj depende de iliaj specifaj postuloj. En ĉi tiu respondo, ni esploros kelkajn el la komunaj deplojceloj por la Pusher-komponento kaj provizos ampleksan klarigon pri ĉiu.
1. Loka Disvolviĝo:
La Pusher-komponento subtenas lokan deplojon, kio permesas al uzantoj deploji siajn edukitajn modelojn sur la loka maŝino. Ĉi tio estas utila por testado kaj evoluoceloj, kie la modelo povas esti deplojita kaj taksita sen la bezono de distribuita sistemo aŭ ekstera infrastrukturo. Loka deplojo estas atingita simple precizigante la lokan padon kie la modelartefaktoj estas stokitaj.
ekzemple:
python pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=pusher_pb2.PushDestination( filesystem=pusher_pb2.PushDestination.Filesystem( base_directory='/path/to/local/deployment' ) ) )
2. Google Cloud AI Platform:
La Pusher-komponento ankaŭ subtenas deplojon al Google Cloud AI Platform, administrita servo kiu disponigas senservilan medion por ruli maŝinlernajn modelojn. Ĉi tio permesas al uzantoj facile disfaldi siajn modelojn al la nubo kaj utiligi la skaleblon kaj fidindecon ofertitajn de Google Cloud. Por deploji al Google Cloud AI Platform, uzantoj devas provizi la projekto-identigilon, modelnomon kaj version-nomon.
ekzemple:
python pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=pusher_pb2.PushDestination( ai_platform_push=pusher_pb2.PushDestination.AIPlatformPush( project_id='my-project', model_id='my-model', version_id='v1' ) ) )
3. Servo de TensorFlow:
TensorFlow Serving estas malfermfonta serva sistemo por deploji maŝinlernajn modelojn. La Pusher-komponento en TFX subtenas deplojon al TensorFlow Serving, permesante al uzantoj deploji siajn modelojn al distribuita serva infrastrukturo. Ĉi tio ebligas alt-efikecan kaj skaleblan modelservadon, igante ĝin taŭga por produktaddeplojoj. Por deploji al TensorFlow Serving, uzantoj devas disponigi la adreson kaj havenon de la TensorFlow Serving modelservilo.
ekzemple:
python pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=pusher_pb2.PushDestination( tensorflow_serving=pusher_pb2.PushDestination.TensorFlowServing( tags=['serve'], server='localhost:8500' ) ) )
4. Aliaj Propraj Deplojaj Celoj:
La Pusher-komponento en TFX estas dizajnita por esti etendebla, permesante al uzantoj difini siajn proprajn kutimajn deplojcelojn. Ĉi tio donas al uzantoj la flekseblecon por deploji siajn modelojn al iu ajn medio aŭ sistemo, kiu povas konsumi TensorFlow-modelojn. Uzantoj povas efektivigi sian propran kutiman "PushDestination" subklason kaj registri ĝin kun la Pusher-komponento por ebligi deplojon al sia celmedio.
ekzemple:
python class MyCustomPushDestination(pusher_pb2.PushDestination): def __init__(self, my_custom_arg): self.my_custom_arg = my_custom_arg pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=MyCustomPushDestination(my_custom_arg='custom_value') )
La Pusher-komponento en TFX subtenas diversajn deplojajn celojn, inkluzive de loka deplojo, Google Cloud AI Platform, TensorFlow Serving kaj kutimaj deplojceloj. Ĉi tiu fleksebleco permesas al uzantoj deploji siajn edukitajn modelojn al malsamaj medioj depende de iliaj specifaj bezonoj kaj infrastruktura agordo.
Aliaj lastatempaj demandoj kaj respondoj pri Distribuita prilaborado kaj komponantoj:
- Kio estas la celo de la Evaluator-komponento en TFX?
- Kio estas la du specoj de SavedModels generitaj de la Trejnisto-komponento?
- Kiel la Transform-komponento certigas konsistencon inter trejnado kaj servado-medioj?
- Kio estas la rolo de Apache Beam en la kadro TFX?