Python Tensorflow Tutorial

Python Tensorflow Tutorial

En programmeringsprogramvare som heter TensorFlow er designet for å bygge dyp læring og maskinlæringsapplikasjoner. Tensorer har funksjonaliteten til flerdimensjonale strukturer som holder data. Tensorflow -bibliotekene støtter JavaScript og Python. Tensorflow, som ble opprettet av Google, er for tiden en åpen kildekode til ML- og AI-spørsmål knyttet til Big Data. Det er et fleksibelt system, spesielt gitt sin evne til å fungere samtidig på mobile enheter, GPUer og CPUer.

Fremtiden har enorm vekst for tensorflow -teknologi. Det anses helt for å være retningen for dypt læringsmodellering. Det brukes til vitenskapelige formål av flere prestisjetunge selskaper. De er best kjent for å delta i store bedrifter, forskning og spesielt Google -produkter. Selv de begynte å bruke mobile enheter og skyen for oppgavene sine.

De essensielle delene av TensorFlow er tensorer. De grunnleggende datastrukturene til tensorflow -språket er representert som en flerdimensjonal samling eller liste. Ethvert flytdiagrams tilkoblingskanter er tensorer, som blir referert til som dataflytgrafen. Tensorer er koblingstilkoblingene i ethvert flytskjema, ofte kjent som dataflytgrafen. Multilineære kart kan være hva som helst, inkludert vektorrom og reelle tall.

En tensor kan derfor være en skalar, vektor eller matrise. Tensorflow -applikasjoner er ofte delt inn i to faser: å bygge ved å demontere en graf og utførelse ved hjelp av en økt. Denne økten er gunstig for personer som er bekymret for Python og fokuserer på utvikling og forskning ved bruk av en rekke maskinlæring og datalæringsalgoritmer. Python er det eneste språket som Tensorflow bruker. Å ha en sterk forståelse av Python er derfor påkrevd. Tensorflow kan lett forstås hvis vi har en grunnleggende forståelse av grunnleggende matematikk og AI -konsepter.

Applikasjoner av Tensorflow

  • For videodeteksjon brukes den dype læringsmetoden. Bevegelsesdeteksjon, sanntids fardeteksjon, flyplasssikkerhet og UI/UX-felt bruker det.
  • De mest kjente dypt læringsapplikasjonene involverer tale- og lyddeteksjon. Nettverkens mulighet til å gjenkjenne lydsignaler avhenger av inndatafôrfôret deres.
  • Bildegjenkjenning er også en populær anvendelse av TensorFlow. Bildegjenkjenning brukes til å gjenkjenne og identifisere individer og ting fra fotografier. Ethvert bildes kontekst og innhold kan forstås via bildegjenkjenning.
  • En annen godt likt dyp læringstilnærming bruker tekst som input. Tekstbaserte applikasjoner inkluderer for eksempel tekstanalyse, nettsteder for sosiale nettverk, trusselidentifikasjon og svindeldeteksjon.

Struktur av tensorflow

Flere API-er som faller inn i kategoriene på lavt nivå og høyt nivå er med på å kompensere for tensorflow-bibliotekene.

Tensorflow API på lavt nivå: Det betydningsfulle elementet i TensorFlow er kjernen API. For å bygge effektive maskinlæringsapplikasjoner kombinerte utviklere Python- eller JavaScript -programmene ved å innlemme TensorFlow Core. Effektiv, men TensorFlow Core har en høy læringskurve. Enhver person som jobber med Core, må være kjent med de grunnleggende datakonseptene og kjerne -API -en som omfatter TensorFlow.

Tensorflow API på høyt nivå: Disse inkluderer et sett med avanserte programmer og biblioteker som bruker TensorFlow. Noen hjelper til med å lage modeller som kan tjene som kjerneprinsippet for en graf. Andre gir et skalerbart lag som muliggjør tilpasning uten å bli trent fullt ut med tensorflow. Læringskurven for de fleste av disse APIene er langt mer imøtekommende, og de er ofte mindre og mer pålitelige enn Core API.

Funksjoner ved TensorFlow

I motsetning til andre dypt læringsplattformer som for øyeblikket er tilgjengelige, tilbyr TensorFlow et interaktivt, multiplatform-programmeringsgrensesnitt som er skalerbart og pålitelig. Vi har noen kjente aspekter angående Tensorflow, som inkluderer:

  • Vi kan vise alle aspekter av grafen, som rammer som Numpy eller Scikit ikke tilbyr. For å designe programvare for dyp læring, må du først ha noen få komponenter og et programmeringsspråk.
  • Det tillater deg å undersøke hver node eller operasjon når det gjelder analyse uavhengig. Tensor Board bruker dashbordet for å se hvordan det fungerer via en graf. Det tilbyr statistiske grafisk tilnærminger som hjelper med et enkelt paradigme.
  • Maskinlæringsbibliotekets primære kjennetegn er at alle med internettforbindelse kan bruke den fordi den er åpen kildekode. Så ved å endre biblioteket, kan brukere opprette et bredt spekter av verdifulle tjenester.
  • Modellutvikling og trening tilbys på både CPU og GPU av TensorFlow. Både CPU og GPU er i stand til å utføre beregninger, og de kan også kontrasteres.
  • I et nøtteskall fungerer TensorFlows funksjonskolonner som en kobling mellom inputdata og vårt nettverk ved å fungere som mellommenn mellom estimatorer og rå data.
  • Tensorflow gir et bestemt abstraksjonsnivå ved å forkorte implementeringen og akselerere utviklingen. Brukeren må ta hensyn til logikk i stedet for riktig måte å legge inn data i funksjoner. Brukeren kan angi modellen som perfekt representerer systemets behov.

Tensorflow -arkitektur

Arkitekturen til Tensorflow er fullført av flere ekstra indre deler.

Servabler: Den abstrakte enheten som brukes av TensorFlow for å hjelpe til med å levere oppgaver er kjent som en serverbar. Dette er kjernekomponentene som letter beregning. Det leverer et høyt nivå av størrelse og oppløsningstilpasning. Komponentene i en tensorflow -servable kan variere fra et sett med tabeller til en distinkt tuple med API -modeller. Serverbarene kan ha noen form for grensesnitt, noe som gir mulighet for fleksibilitet og fremtidig avansement.

  • Tilkoblinger av eksperimentell API
  • Streaming utfall
  • Behandling av asynkrone metodologier

Serverbare versjoner: Dette gjør det mulig å gradvis laste inn nye algoritmeoppsett, priser og andre data. Videre muliggjør de synkron lasting av mange versjoner av en serverbar, muliggjør eksperimentering og en faset utrulling.

Tensorflow Manager: Manageren sporer alle versjoner mens han beholder kildene. Til tross for lederens forsøk, kan det hende at en ønsket versjon ikke alltid lastes. Et annet alternativ for ledere er å utsette en "loss.”TensorFlow Managers kontrollerer A Servables generelle livssyklus, som inkluderer lasting, lossing og servering av serveringer.

Tensorflow Core: TensorFlow Core inneholder livssyklusmålinger, og serveringskjernen i TensorFlow godtar servabler og lastere som objekter.

Tensorflow Lifecycle: Lederen laster og kjører lasterne som kildene har utviklet for servable versjoner. Etter dette blir de levert som aspirerte versjoner til kundene som klientforespørsler. For å laste inn servabelen har lasteren alle de nødvendige metadataene. Kilden sender kilden til manageren for aspirert versjon gjennom en tilbakeringing. Lederen implementerer gjeldende versjonspolicy for neste handling som skal tas. Lederen pålegger lasteren å skaffe seg den oppdaterte versjonen og gir de nødvendige ressursene hvis de anser det som trygt.

Klienter kan be om den nyeste versjonen av den serverbare eller spesifisere en versjon når de ber om den fra ledelsen. Lederen gir den serverbare håndtaket tilbake. Deretter blir nok minnemelding informert av den dynamiske manageren til lasteren. Den dynamiske manageren svarer med et håndtak på den nyeste versjonen av Servable når en klient ber om et håndtak for den nyeste modellen.

Serverbare strømmer: Det består av flere servabler i forskjellige typer. Det beholdes i en eskalerende sekvens av iterasjoner.

Tensorflow Loaders: Vedlikehold av TensorFlow Servables hele livssyklus gjøres gjennom TensorFlow Loader API. Det gir en delt infrastruktur for visse algoritmer.

Tensorflow Batcher: Når GPUer og maskinvareakseleratorer er tilgjengelige, kan batching -tensorflow -responser til en enhetlig applikasjon redusere kostnadene for å løpe inferens betydelig. En mer batch -widget er tilgjengelig i TensorFlow Servable, slik at klienter kan batche sine forskjellige individuelle inferensspørsmål i ett spørringsbatch med letthet å effektivt utføre denne operasjonen.

Tensorflow -modeller: En servering er en gjengivelse av et paradigme i en eller enda mer servabler. En servable fungerer også som en komponent i en modell, slik at en stor søkbar tabell kan brukes som flere forekomster.

Tensorflow fordeler

Åpen kilde: Det er tilgjengelig for alle brukere og forberedt på å lage ethvert system på grunn av åpen kildekodeplattform.

Parallellisme: Tensorflow bruker både GPU- og CPU -enheter for å betjene. Brukeren kan bruke noen av oppsettene etter deres behov. Hvis ikke spesifikt angitt, bruker et system GPU. Minnebruk reduseres noe med denne teknikken. Tensorflow regnes som et maskinvarehastighetsbibliotek på grunn av dets evne.

Arkitektonisk støtte: Sammenlignet med CPU og GPU, inkluderer TensorFlow -arkitekturen TPU for å akselerere operasjonen. I motsetning til de to andre, kan utviklede modeller ved bruk av TPU distribueres over skyer med letthet.

Feilsøking: Vi kan skaffe og få diskrete data på grunn av samarbeidet om å utføre underpunkter av en graf ved å gi den fordelen.

Skalerbar: Denne plattformen muliggjør utførelse av nesten alle operasjoner. TensorFlow gjør det mulig for brukerne å lage ethvert system på grunn av dens evne til å bli installert på enhver maskin og dens grafiske modellrepresentasjon.

Grafisk støtte: TensorFlow brukes til utvikling av dyp læring fordi den muliggjør konstruksjon av nevrale nettverk ved bruk av grafer som har noder for operasjoner. TensorFlow -funksjoner i forskjellige domener, inkludert tidsserier, bevegelsesdeteksjon, stemmeidentifikasjon og bildegjenkjenning, så det kan brukes til å dekke en brukers behov.

Tensorflow ulemper

Ingen vindusstøtte: Til tross for Tensorflows mange fordeler, kan Windows -brukere bare nå et begrenset antall av funksjonene. Linux -brukere har tilgang til et omfattende utvalg av evner.

Avhengighet: TensorFlow reduserer mengden skript og gjør det enklere for brukere å få tilgang til, men det gjengir også ved å bruke koden mer kompleks. Hver kode må utføres på en mangfoldig plattform som skal aktiveres for å øke utførelsesavhengighetene.

Inkonsekvens: Homonymer brukes i titlene på Tensorflows moduler, noe som gjør det vanskelig for brukere å beholde og bruke. Problemet kommer fra å ta i bruk et enkelt navn for flere forskjellige sammenhenger.

Hastighet: Tensorflow beveger seg i sakte tempo sammenlignet med motstanderne. Sammenlignende med andre rammer er det mindre brukbart.

Symbolsk sløyfe: Funksjonen er mer viktig når du diskuterer sekvenser med variabel lengde. Tensorflow inkluderer ikke funksjonalitet. Imidlertid er endelig lagdeling den passende løsningen.

Hvordan installere Python Tensorflow i Ubuntu 20.04

TensorFlow-biblioteket er open source-programvare for maskinlæring og utvikling av dype nevrale nettverk. TensorFlow -biblioteket kan installeres i det virtuelle miljøet i Python. I denne artikkelen installerer vi TensorFlow -biblioteket, og alle installasjonsinstruksjonene er for Ubuntu 20.04. Imidlertid bruker alle Linux -variantene den samme metodikken for å installere TensorFlow -biblioteket. Vi har demonstrert hvert trinn med utførte kommandoer for å installere TensorFlow -pakken med hell.

Trinn 1: Det første trinnet er å sørge for at Python skal installeres i Ubuntu 20.04. Vi kan bekrefte Python -versjonen ved å gi kommandoen “Python3 -v”. Siden vi allerede har installert Python3, vises versjonen i følgende bilde:

Steg 2: Nå er vi bekreftet at Python er installert i systemet vårt. Deretter går du videre med neste trinn. Vi har implementert Venv-pakken fra Python3-Venv-pakken, som er den foretrukne metoden for å bygge et virtuelt miljø. For å få Venv -modulen, skriv inn kommandoen som følger:

Trinn 3: Vi har installert VENV -pakken i systemet vårt. Nå kan vi enkelt skape et virtuelt miljø for TensorFlow -prosjektet. For dette har vi opprettet katalogen der vi ønsker at vårt virtuelle Python3 er lokalisert. Den opprettede direktøren skal ha lest og skrevet privilegier for brukerne du vil tillate. Vi har opprettet katalogen “PY_TENSORFLOW”, og med “CD” -kommandoen har vi lagt inn den aktuelle katalogen.

For å bygge det virtuelle miljøet fra Venv -modulen, har vi brukt følgende kommando inne i PY_TENSORFLOW -katalogen. Her har vi valgt "Venv" -navnet for vårt virtuelle miljø, men det kan være et annet navn. Denne kommandoen genererte Venv -katalogen som inkluderer Python standardmoduler, Pip Package Manager, kopier av Python -binærveger og andre støttefiler.

Vi har skrevet inn vårt virtuelle miljø ved å aktivere Activate -skriptet fra følgende kommandoformat. BIN -katalogen vil bli lagt til systemets $ banevariabel for det virtuelle miljøet etter at den er aktivert. Det virtuelle miljølavnet vises nå i terminalpromptet, som også vil endres. Som vi har valgt "Venv" for vårt virtuelle miljø, så vises det, som følger:

Nå er vi på det stadiet hvor vi kan installere TensorFlow -modulen. Vi må oppgradere PIP -versjonen med den nyeste versjonen, som kreves for å installere TensorFlow -biblioteket i vårt virtuelle miljø. PIP -modulen i vårt nåværende VENV -virtuelle miljø vil bli oppgradert med følgende kommando:

Vi har oppgradert PIP -versjonen, da ledeteksten viser dette i snapen tatt av oss. Gjennom deaktiveringskommandoen kan vi forlate det virtuelle miljøet når vi vil. Kilden aktiverer en kommando som kan brukes til å revitalisere den på et senere tidspunkt. Når du bruker TensorFlow, foreslår vi å holde deg i det virtuelle miljøet. Tensorflow -modulinstallasjonen er nå klar til å gå. Med PIP -kommandoen har vi installert "TensorFlow" -biblioteket. Følgende kommando henter den siste stabile versjonen og hver TensorFlow -pakkes avhengigheter:

Når TensorFlow begynner å installere, vil vi se en uttalelse som indikerer at installasjonen av TensorFlow og eventuelle nødvendige avhengige pakker var vellykket.

Python TensorFlow -datatyper

TensorFlow støtter unike datatyper. Vi vil gå gjennom bruken av datatyper i TensorFlow. TensorFlow godtar innfødte Python -datatyper som strenger, booleaner og tall (int, float). Numpy kommer godt overens med TensorFlow 2.x også. Datatype Skiftende mellom Numpy og Tensor støttes riktig. Både 32-biters og 64-biters tall, så vel som andre datatyper, er tilgjengelige i Python Tensorflow. Vi har vist datatyper av eksempler på en tensor som inkluderer:

Generelt brukte vi “dtype” for å skaffe datatypen for den spesifiserte verdien. Tensorflow “dtype” brukes til å bekrefte den nåværende tensorens datatype eller gi datatypen for beregninger som trenger den.

Eksempel

Først har vi hentet heltalldatatypen. En "int" datatype utfører på samme måte som andre moduler. Den beskriver et visst utvalg av heltall i matematikk. Ulike størrelsesbegrensninger gjelder for integrerte datatyper, og negative verdier kan ikke være tillatt. For dette har vi gitt tensorflow som "TF" og påkalt konstanten som tar den numeriske verdien "3". Med dette har vi kalt “dtype”. Når vi trykker på Enter for RePL -setningen, utføres "int32" datatypen. Slik skriver vi ut datatypen av en gitt verdi.

Eksempel

I neste tilfelle har vi sjekket datatypen til desimalnummeret. Til konstant () har vi passert desimaltallet “1.5 ”og kalte dtypen. Når vi utfører dette, TF.Float32 vises av Python Tensorflow Replow.

Eksempel

Deretter viste vi datatypen ved å passere det imaginære nummeret “2+2J”, og TensorFlow dtype returnerte datatypen Complex128. Datatypen Complex128 representerer de to 64Bits flyte datatyper.

Eksempel

En streng er en vanlig og nyttig datatype støttet av hvert Python -bibliotek. En strengdatatype består av en samling av tegn. Tilsvarende har Python Tensorflow også strengdatatypen, som vi har vist i følgende eksempel. Vi har passert "Hello World" -strengen, og ved utførelse, "TF.streng ”vises i utgangen.

Eksempel

Den boolske datatypen, ofte forkortet til bool, representerer de sanne og falske logiske verdiene. Her har vi passert den logiske verdien "sann" for datatypen, og den returnerte TF.boolverdi som datatypeverdi. Dette betyr at denne velkjente BOOL-datatypen også støttes i Python Tensorflow.

Python tensorflow -variabler

Den beste tilnærmingen for å representere den delte, konstante tilstanden som programmet fungerer med er å bruke en tensorflow -variabel. Tensorholdige buffere i minnet fungerer som variabler. De kan lagres på platen under og etter trening, men må initialiseres manuelt. Gjennom “TF.Variabel ”klasse, variabler genereres og sporet. Det er mulig å endre en tensorverdi ved å implementere operasjoner representert av klassen “TF.Variabel ”. Vi kan lese og revidere denne tensorens verdier ved hjelp av spesifikke operasjoner.

Når de er bygget, kan ikke variablene og formene oppdateres. La oss se på noen få eksempler på variabel formasjon ved bruk av TensorFlow.

Eksempel

Vi har et eksempel nedenfor der vi har laget en python -tensorflow -variabel som viser form, dimensjoner, størrelse og datatype av verdien som er gitt inn som en inngang i variabelen () konstruktøren. Først har vi importert TensorFlow -modulen med aliaset "TF". Deretter setter vi variabelnavnet som "tensor" og erklærte det med variabelen () konstruktøren.

Til variabelen () konstruktøren har vi passert de to numeriske verdiene. Deretter trykket vi formen på tensorflow -variabelen ved å påkalle “TF.form ”objekt. Etter det trykket vi "dimensjonen" av variabelen ved å sende "tensoren" til "TF.Rang "-metode og påkalte også Numpy () -funksjonen. Deretter trykket vi størrelsen på variabelen ved å sende "tensoren" i størrelsesmetoden, og til slutt oppnådde vi datatypen fra DTTYPE -metoden, som allerede er diskutert i forrige seksjon.

Eksempel

Gjennom bruk av den variable konstruktøren forstår vi hvordan vi skal etablere en variabel. Nå må vi endre formen på variabelen ved å bruke den nye Python TensorFlow -metoden kalt RESHAPE () -metode. Denne metoden omformet () tar parameteren "form" og variabelnavnet. Nå har vi implementert eksemplet på omformet metode. Vi har erklært variabelen “Tensor” og setter verdien for den med variabelen () konstruktøren.

Etter det ansatte vi “TF.Reshape () ”-metode og passerte“ tensor ”-variabelen og formmetoden, som er satt med verdien som skal formes for de spesifiserte verdiene i variabelen () konstruktøren. Deretter utførte vi det forrige programmet, som omformet den variable formen. Koden og utdataene er festet til det påfølgende bildet:

Eksempel

Nå har vi gjort kringkasting av tensorflow -variabler. De mindre variablene kan øyeblikkelig utvide seg for å passe til de større variablene når vi prøver å kjøre sammenkoblede operasjoner med flere variable objekter, omtrent som vi kan med tensorobjekter. Dette er veldig sammenlignbart med hvordan numpy matriser fungerer. En skalarvariabel skaleres for å multiplisere hvert medlem av variabelen når du søker å multiplisere den med en annen variabel.

Vi må importere tensorflow -modulen fordi vi ikke har tilgang til tensorflow -variabelen. Etter det erklærte vi "variabelen ()" konstruktøren i variabelen "T1" og "T2". Til variabelen “T1” har vi passert de to numeriske verdiene, som skal multipliseres med den numeriske verdien av variabelen “T1”. I løpet av "resultatet" -objektet multipliserte vi de to variablene og viste de resulterende verdiene med utskriftserklæringen. Koden og utdataene er festet i det påfølgende bildet.

Eksempel

Vi kan bruke den til å identifisere formen for maskinvare (en CPU) som brukes til å utføre variabelen vår. For dette, “.enhet ”attributt brukes. I følgende implementering har vi definert variabelnavnet “TF1” og tildelt variabel konstruktør inne i den, som passerte to verdier som en inngang. Etter det bruker vi utskriftserklæringen der ".enhet ”-attributter kalles med variabelen“ TF1 ”. Type maskinvarevariabel vises på terminalen.

Python Tensorflow Placeholder

Tensorflow -variablene som skaffer seg data på et senere tidspunkt er kjent som en plassholder. Vi er i stand til å lage prosedyrer uten behov for data. Når økten begynner og opererer, settes data inn i plassholderen. Gjennom bruk av plassholdere kan vi legge til data i TensorFlow Graphs.

Eksempel

Vi har importert TensorFlow -modulen annerledes ettersom plasseringsattributtet ikke er funnet, og en feil har oppstått. Deretter har vi den variable “P” og setter plassen () -metoden inni den. Plassholderen tar parametrene "Float" og "Ingen". Vi har initialisert verdiene for plassholderen. Men vi har satt driften av multiplikasjon som "p*2" inne i "Q" -variabelen.

Nå har vi implementert øktobjektet fra TensorFlow -økten (). Her, selv om det ble opprettet en mye større tomt som ble opprettet, kunne bare en liten del av plottet utføres. Denne undergrafvurderingen er en av Tensorflows største fordeler fordi få andre biblioteker som utfører relaterte oppgaver tilbyr den. Deretter passerte vi variabelen “Q” og satte Feed_dict ved å tilordne verdien for “P” -variabelen i øktkjøringen (). Her gir utgangen de forventede resultatene etter utførelse. Koden og utdataene er festet i det påfølgende bildet:

Eksempel

Videre kan plassholdere med forskjellige dimensjoner lagre matriser. Følgende tilfelle inkluderer plassering av flere heltall i en matrise. Deretter bruker vi samme teknikk som før, multipliserer vi heltallelementet med to. Inne i det følgende programmet har vi kalt plassholderen i variabelen “V1”. Plassholderen definerer dimensjonen som "ingen" og den andre dimensjonen som "3". Dette betyr at kolonnen skal være tre for matrisen.

Etter det multipliserte vi variabelen “V1” med “3” og opprettet økten. Vi har bestått “V2” og “Feed_dict” som et argument i øktkjøringen, og verdiene for variabel “V1” er også satt i FEED_DICT -inngangen. Vi har skrevet ut matrisen på 3 av 2 i følgende bilde sammen med koden:

Python Tensorflow Sparsom Tensor

Den raske behandlingen og hurtigbufringen av tensorer i TensorFlow er muliggjort av sparsomme tensorer og ansatt i applikasjoner for naturlig språkbehandling og datasyn, samt for forbehandlingsfotografier med mørke piksler. Vi bruker “TF.sparsom.Sparsetensor () ”-funksjon for å representere en sparsom tensor, som vil bli brukt til å utføre denne spesifikke oppgaven.

Eksempel

Her har vi satt verdiene for de sparsomme parametrene. "Ind" representerer indeksene som har alle verdier som ikke er null. "Val" er verdien som er spesifisert av tensorens form for hvert tidligere indekser. Deretter har vi en tett formparameter som "DS", som også initialiseres med listen. Deretter passerte vi alle disse parametrene inne i TF.sparsom.Sparsetensor () funksjon som et argument. Følgende SNAP viser også funksjonens utfall. Koden og utdataene er festet i det påfølgende bildet:

Eksempel

Nå vil vi se konvertering av tensorflow til den numpy verdien. For å oppnå dette, vil vi bruke den ivrige utførelsesfunksjonen til å betjene økten. TF.kompat.v1. Session () -funksjonen brukes til å konstruere økten etter import av TensorFlow -modulen, og TF.sparsom tensor () -funksjon brukes etter det. Etter det definerte vi variabelen “new_result” og tildelte heltallverdien i form av en liste til TF.Sparsetensorfunksjon. Etter å ha skrevet ut funksjonsoperasjonen, kan vi se utdataene.

Eksempel

Vi har sett den sparsomme konverteringen til Numpy. Nå har vi konvertert det sparsomme til tett. For dette har vi implementert følgende program. Vi har tildelt TF den tette formen.Sparsetensorfunksjon, verdi og indekser parametere og initialiserte dem også. Etter det påkalte vi tensorflow “to_tense” -funksjonen som tar “TF.Sparsetensor ”-funksjon og viser resultatene. Koden og utdataene er festet i det påfølgende bildet:

Tensorflow Transpose -funksjonen

TensorFlow Transpose -funksjonen er et trekk ved Python Deep Learning Domain's TensorFlow -pakke. Denne funksjonen gjør oss i stand til å bestemme transponering av de gitte dataene når vi overfører dem til TensorFlow -paradigmet. Inngangsmatrisen til tensoren vil bli omgjort av transponeringsfunksjonen, noe som resulterer i en diagonal flipping av radene og kolonnene.

Eksempel

Vi har en TensorFlow -pakke inne i skriptet vårt, som er tildelt et symbolsk navn, "TF". Deretter erklærte vi variabelen “A”, der vi opprettet listen over numeriske verdier. Etter å ha opprettet de to listene i den konstante metoden, benyttet vi “TF.Transpose ”-metoden og passerte inngangsvariabelen“ A ”inni den. Transponeringsfunksjonen har endret plasseringen av den horisontale listen til den vertikale listen, som vist inne i følgende skjermbilde:

Eksempel

Den spesifiserte matrisen som en inngang vil bli transponert av størrelsen som er angitt hvis PERM -argumentet er gitt. Tenk på PERM -parameteren til transponeringsfunksjonen i følgende eksempel. Etter å ha satt inn pakken TensorFlow, har vi spesifisert de to listene med tall i tensorflow -konstantmetoden i variabelen “trans”. Deretter har vi kalt TensorFlow -metoden, der "trans" er tildelt som input, og PERM -parameteren er også satt med dimensjoner for 3 × 3 -metrisk. Transponeringsfunksjonen genererer den nye transformerte metrikken.

Eksempel

Den nye parameteren “Conjugate” introduseres i dette eksemplet. Vi kan transponere en tensor hvis den er konjugert i inngangen. Vi må gi “TF.Transpose () ”Argumentkonjugat lik True for å oppnå dette. Inne i programmet har vi satt variabelen “IMG” for å lage listen ved hjelp av “TF.konstant ”metode. Vi har tildelt et komplekst nummer til listen. Etter det benyttet vi oss av transponeringsfunksjonen der det konjugatede argumentet kalles og satt med boolverdien “True”. Når Transpose -funksjonserklæringen utføres, viser utgangen konjugatet Transponer -metrisk, som følger:

Tensorflow Argmax -funksjon

TensorFlow Argmax -funksjonen brukes til å bestemme den største verdien mellom aksjene og er en del av matematikkpakken til TensorFlow -biblioteket. Teknologifeltet definert som Tensorflow Keras er for tiden en av de mest brukte og raskt utviklende fordi det kan endre teknologien.

Eksempel

Vi har brukt TensorFlow -modulen for å bruke Argmax -funksjonen. Deretter har vi satt verdien med den konstante metoden i variabelen “x”. Vi har påkalt Argmax -funksjonen fra Python Math Library i variabelen “Y”. Tensorflow Argmax -funksjonen tar inngangsparameteren “x”, og så har vi vist tensoren med utskriftsmetoden. Etter det beregnet vi verdien av den oppnådde tensoren gjennom TF.Keras.baksiden.eval () metode da vi passerte variabelen “y” til den. Den har maksimal verdiindeks i utdataene, ettersom den siste indeksverdien har maks. Så den maksimale verdien av indeksen genereres.

Eksempel

Her, med formmetoden til tensorflow, har vi implementert Argmax -funksjonen. Det første trinnet med å inkludere tensorflow er ferdig. Deretter har vi definert variabelen “U”, der den konstante funksjonen tar parameteren “Verdi” og angir listen over heltall inne i den. Vi har også satt "form" -argumentet i den konstante funksjonen og formen "3x3". Vi har skrevet ut formen på den spesifiserte listen i 3 × 3 dimensjoner. Deretter konstruerte vi en annen variabel, "V", der ArgMax -funksjonen ble distribuert ved å tildele "input" -argumentet som "x". Når tensoren skrives ut, sender den ut indeksverdien, og med Keras -modulen har vi evaluert verdien som viste maksimale indekser henholdsvis.

Tensorflow Argmin -funksjon

Tidligere diskuterte vi TensorFlow Argmax -funksjonen. Tensorflow Argmin -funksjonen implementeres den samme som Argmax -funksjonen. Utgangsverdiene er det eneste som skiller seg. TensorFlow -bibliotekets matemodul inneholder TensorFlow Argmax -metoden, som bestemmer verdien med minimumsverdien mellom aksenes verdier.

Eksempel

Tensorflow -modulen er utpekt i eksemplet nedenfor. Deretter har vi initialisert noen numeriske verdier i form av matrisen, som er til stede inne i variabelen “A1”. Ved hjelp av matematikkpakken har vi brukt Argmin -funksjonen og satt "input" -argumentet med variabelen til tensor "x". Etter det viste vi den evaluerte tensoren fra Argmin -funksjonen. Endelig har vi bestemt verdien av tensoren fra Keras.baksiden.evalemetode, som tallet “1.9 ”er et minimumstall. Så i utgangen har vi indeksverdien “3” mot dette tallet.

Eksempel

Nå brukte vi formmetoden til tensorflow. Dette vil generere de formede indeksverdien til minimumsverdiene. Vi har etablert variabelen “jeg” og erklært den med den konstante funksjonen. Den konstante funksjonen tar verdien og formen som et argument. Disse spesifiserte argumentene er satt med verdien. Da har vi vist tensoren og indeksene på tallet med minimumsverdier.

Konklusjon

Et dypt læringsbibliotek som er mye brukt er Tensorflow. Det brukes mest i konstruksjonen av nevrale nettverk, og både små og store bedrifter bruker det. Tensorflow brukes også i de fleste av Googles produkter, inkludert Gmail og søkemotoren, som sett over; Google bruker det også til interne formål. En introduksjon til TensorFlow er gitt i denne håndboken.

Her har vi diskutert Tensorflows introduksjon av nøkkelelementer, egenskaper, fordeler og ulemper. Vi har adressert hvert aspekt av Python Tensorflow og implementeringen av TensorFlow -koden med Linux -serveren. Vi har demonstrert hvordan vi skal sette opp TensorFlow på Ubuntu 20.04 I et virtuelt miljø. Deretter ser vi tensorflow -datatypen. Vi har hentet datatypen med dtypefunksjonsanropet i TensorFlow.

Deretter har vi undersøkt erklæringen og initialiseringen av variabelen () konstruktøren. Tensorbaserte buffere i minnet kalt TensorFlow-variabler forblir aktive etter en utførelse av grafen og brukes gjentatte ganger. Deretter har vi en tensorflow plassholder forklaring. De gjør oss i stand til å definere begrensninger i verdisstørrelsen og datatypene som blir sendt inn. Deretter har vi en annen tensorflow -funksjons implementering, som kalles den sparsomme tensorfunksjonen. Vi brukte “TF.sparsom.Sparsetensor ”-funksjon for å vise de sparsomme tensorverdiene. Vi har også brukt tensorflow -transponeringsmetoden.

Tensorflows transponeringsfunksjonshjelpemidler ved å snu inngangspensoren, noe som får radene og kolonnene i matrisen til å veksle. Dessuten forklarer denne opplæringen ytterligere to funksjoner, Argmax og Argmin, støttet av TensorFlow -modulen. Disse metodene hjelper til med å lokalisere den høyeste og laveste verdien i tensoren som har blitt levert som inngang både langs og over aksene. Tensorflow gjør det utrolig enkelt å implementere disse metodene, da dette emnet er veldig stort, men vi har prøvd å dekke alle viktige temaer som vi kan.