Your browser doesn't support javascript.
loading
Mostrar: 20 | 50 | 100
Resultados 1 - 10 de 10
Filtrar
Mais filtros

Tipo de documento
Intervalo de ano de publicação
1.
Tese em Português | VETTESES | ID: vtt-221993

Resumo

A gelatina em pó adicionada ao diluente de sêmen, pode melhorar o processo de armazenamento, minimizando a ação de fatores que podem prejudicar a qualidade da dose inseminante, com relação aos resultados de fertilidade. O sêmen de cinco reprodutores foi coletado 1x/semana pela técnica da mão enluvada. Foi separado de cada ejaculado 1,75 x109 sptz, repartidos igualmente entre tratamentos a uma concentração de 35 x106 sptz/mL. Foram utilizados dois diluentes: O Beltsville Tawing Solution (BTS) e a água de coco em pó (ACP), acrescidos de gelatina em pó em três diferentes concentrações: 1,5%, 3,0% e 4,5%. No tratamento controle não houve adição de gelatina. Os tubos foram conservados a 17 °C, sendo o dia da coleta considerado dia zero (D0) e o sêmen conservado durante 5 dias (D4), com análises em D0, D1, D2, D3 e D4. A influência dos diferentes tratamentos sobre o sêmen conservado, foi avaliada através dos seguintes testes: vigor espermático (0 a 5), motilidade espermática (%), morfologia acrossomal (%), vitalidade espermática (%) e teste de resistência osmótica (%). O delineamento experimental inteiramente casualizado, sendo distribuído em blocos ao acaso. Os dados quantitativos com distribuição normal foram submetidos a Análise de Variância (ANOVA) e as médias foram comparadas pelo teste de Tukey, usando o R version 3.5.2 (2018-12-20) -- "Eggshell Igloo" Copyright (C) 2018 The R Foundation for Statistical Computing. Todos os testes foram realizados com um índice de significância de 5% (p<0,05).


Powdered gelatine added to semen diluent can improve the storage process, minimizing the action of factors that may impair the quality of the inseminating dose, with respect to fertility results. Semen from five breeders was collected 1x / week using the gloved hand technique. 1.75 x109 sptz was separated from each ejaculate, equally distributed between treatments at a concentration of 35 x106 sptz / ml. Two diluents were used: Beltsville Tawing Solution (BTS) and powdered coconut water (ACP), plus powdered gelatin in three different concentrations: 1.5%, 3.0% and 4.5%. In the control treatment, no gelatin was added. The tubes were kept at 17 ° C, the collection day being considered day zero (D0) and the semen kept for 5 days (D4), with analyzes in D0, D1, D2, D3 and D4. The influence of different treatments on conserved semen was assessed using the following tests: sperm vigor (0 to 5), sperm motility (%), acrosomal morphology (%), sperm vitality (%) and osmotic resistance test (%). The experimental design was completely randomized, being distributed in random blocks. Quantitative data with normal distribution were subjected to Analysis if Variance (ANOVA) and averages were compared by Tukeys test, using R version 3.5.2 (2018-12-20) Eggshell Igloo Copyright © 2018 The R Foundation for Statistical Computing. All tests were performed with a significance level of 5% (p<0.05).

2.
Tese em Português | VETTESES | ID: vtt-215319

Resumo

O nosso objetivo foi estimar a energia metabolizável (EM) do farelo desengordurado da semente do maracujá (FDSM); dez ovinos adultos foram distribuídos aleatoriamente em gaiolas metabólicas individuais com acesso à água e alimentados em nível de mantença, conforme o modelo switch back para dois tratamentos e três períodos experimentais. Inicialmente todos os ingredientes que compuseram as dietas foram analisados para determinação da composição química. Tratamos as dietas como um problema de otimização não linear, e os valores iniciais foram retirados de tabelas internacionais, da composição química dos obtida em nosso laboratório, de tabelas brasileiras e algumas estimativas calculadas. As dietas tiveram como única fonte de volumoso a silagem de milho e diferiram entre si na composição do concentrado. O FDSM substituiu parcialmente a soja na composição do concentrado da dieta teste (DT). Cinco animais receberam a DT no primeiro e terceiro períodos e no segundo período a dieta basal (DB). Os outros cinco receberam a DB no primeiro e terceiro períodos e no segundo a DT. Em cada período foram analisadas amostras da silagem de milho, dos concentrados basal e teste, das fezes e da urina para determinação da composição química. A concentração de energia bruta das dietas e das fezes foi determinada com bomba calorimétrica. A (EM) do concentrado da DB foi utilizado como referência para determinar, por diferença, o conteúdo (EM) do FDSM. O cálculo das digestibilidades seguiu a lógica adotada para (EM). A ingestão de nutrientes, nutrientes digestíveis, energia digestível e as quantidades de nutrientes, fezes e urina excretadas foram analisadas por meio um modelo linear misto. Todas as variáveis foram escalonadas para tamanho metabólico. A estabilização da massa corporal não sofreu influência dos efeitos fixos, nem de suas interações. A digestibilidade aparente da matéria seca (), matéria orgânica (), proteína bruta (), gordura bruta (), nutrientes soluveis em detergente neutro () e energia bruta () foram analisados por meio da distribuição beta. A [ME] inicial do PFSM foi subestimada, mas a DT apresentou redução significativa na metabolizabilidade se comparado a DB. As médias dos mínimos quadrados e a SEM das concentrações de energia metabolizável e 0,95 intervalo de confiança do FDSM foram calculadas por diferença de acordo com dois métodos, assumindo distribuição gama: []1=9.3±1.24 MJ/kg de MS e []2=9.6±1.32MJ/kg de MS. O FDSM pode ser utilizado na formulação de ração, pois contém um conteúdo energético metabolizável próximo a 9,6 ± 1,32 MJ / kg de MS.


The our goal in this study was estimating the metabolizable energy of passionfruit seeds meal (PFSM) and determinate digestibilit of PSFM; ten wethers allotted at random in individual metabolism cages with access to water and fed at maintenance according to a designed switchback trial for two treatments and three experimental periods. We treated the diets as a nonlinear optimization problem and solved using Microsoft Excel Solvers;inputs to the diet problem were taken tabular values, chemical analysis from our lab, and some educated guesses.The ratio of metabolizable protein (MP) to metabolizable energy (EM) intakes was 6.0 g/MJ for basal and test diets. The sequences experimental periods was five animals received the test diet at the first and third periods and the basal diet at the second period, whereas the other five animals received the sequence Basal dietDBD accordingly. Harnessed wethers allowed total daily fecal collection, and daily urine was collected. Samples of the corn silage, samples of soybean meal, grounded yellow corn, PFSM, basal and test concentrates, feces and urine were analyzed to determinate the chemical composition. The gross energy concentration of feeds and fecal samples were determined with bomb calorimetric.The (EM) content of BD was the reference for computing, by difference, the (EM) content of PFSM. We also calculated BD and TD digestibilities of nutrients and energy, and the observed BD digestibility was the reference to compute the digestibility of the test feed (PFSM), also by difference.Theintake of nutrients, digestible nutrients, digestible energy and the amounts of feces and urine produced daily were measured and analyzed statistically by fitting a linear mixed model.There was no statistical evidence that the fixed effects and their interaction exerted any influence over the BM.The coefficients of apparent digestibilities for DM (), OM (), CP (), CF (), NDS (), and GE () were described as beta-distributed variables. Nonetheless,some variables presented some negative results, and the normal distribution was the applicable choice. The [ME] of the PFSM was underestimated, but the TD presented a significant reduction in the metabolizability if compared to BD. The net result was the absence of non-fibrous carbohydrates (NFC) in the PFSM, and the odd negative value obtained by difference for this fraction.The meal of the passionfruit seed cake can be used as a byproduct feed that contain a metabolizable energy content close to 9.6±1.32 MJ/kg of DM.

3.
Arq. bras. med. vet. zootec ; 65(5): 1454-1462, out. 2013. tab
Artigo em Português | VETINDEX | ID: vti-10054

Resumo

Objetivou-se, com este estudo, avaliar a viabilidade econômica do uso de diferentes fontes lipídicas na dieta. O trabalho foi implantado em uma área de 42ha, dividida em oito piquetes, formada de Brachiaria brizantha. Utilizaram-se 12 vacas mestiças Holandês x Zebu, distribuídas em três quadrados latinos 4 x 4. Os quatro tratamentos foram constituídos de diferentes fontes lipídicas, como se segue: dieta sem fonte extra de lipídeos; dieta com caroço de algodão; dieta com óleo de soja; e dieta com óleo de soja de fritura. As dietas foram calculadas para suprir as exigências de mantença e produção de 15kg de leite/dia, com 3,5% de gordura. Utilizaram-se, para efeito de estudo da análise econômica, dois indicadores econômicos, valor presente líquido e taxa interna de retorno. O custo total por animal e por litro de leite produzido aumentou com a utilização das fontes lipídicas na dieta. Todos os tratamentos apresentaram valores positivos para lucro por animal, sendo observados valores de R$ 2,82; R$ 2,68; R$ 2,39 e R$ 2,09 para os tratamentos ausente de fonte extra de lipídeos; óleo de soja de fritura; caroço de algodão e óleo de soja, respectivamente. A taxa interna de retorno foi mais vantajosa quando não se utilizou fonte lipídica na dieta, o que demonstra que este tratamento é economicamente mais interessante para um investidor, gerando 0,73% ao mês. O cálculo do valor presente líquido demonstra que este investimento é viável para todos os tratamentos com taxa de 6% de desconto. O tratamento sem fonte extra de lipídeos apresentou menor custo de produção e, consequentemente, melhor relação custo-benefício. Para taxas de retorno do valor presente líquido de 10 e 12%, a produção leiteira torna-se inviável para todos os tratamentos.(AU)


The objective was to evaluate the economic viability of using different lipid sources in the diet of lactating cows. The experiment was done in an area of 42ha, divided into eight paddocks with an average size of approximately 5.3ha each, consisting of Brachiaria brizantha. Twelve Holstein x Zebu crossbred cows were distributed in three 4 x 4 Latin Squares. The four treatments consisted of different lipid sources, as follows: no extra source of dietary lipids, diet with cottonseed, diet with soybean oil, and diet with soybean frying oil. The diets were formulated to meet the requirements for maintenance and production of 15 kg/day, with 3.5% fat. To study the effect of economic analysis, two economic indicators were used: net present value and internal return rate. A one year simulation was produced to study economic characteristics, computing the depreciation of facilities and machinery in this period. The total cost per animal and per liter of milk produced increased with the use of lipid sources in the diet. All treatments had positive values for profit per animal, with observed values of R$ 2.82, R$ 2.68, R$ 2.39 and R$ 2.09, for treatments without lipid source; soybean frying oil as lipid source; cottonseed as lipid source and soybean oil as lipid source, respectively. The internal return rate was more advantageous when no fat source was used in the diet, demonstrating that this treatment is economically better for an investor, generating 0.73% per month. The net present value calculation shows that this investment is viable for all treatments with a 6% discount rate. Treatment without lipid source had a lower production cost and therefore is more cost-effective. Milk production is not viable for any treatment with return rates of the net present value of 10 and 12%.(AU)


Assuntos
Animais , Lactente , Bovinos , Bovinos/crescimento & desenvolvimento , Lactação/metabolismo , Lactação/fisiologia , Cooperação Econômica/análise , Fenômenos Fisiológicos da Nutrição Animal
4.
Ci. Rural ; 41(10)2011.
Artigo em Português | VETINDEX | ID: vti-707414

Resumo

The present paper approaches the covariance analysis model with one factor and measurement error in the covariate. Accuracy and precision of two estimators suggested in the literature were evaluated through data simulation, for estimating parameters of a regression model with measurement error. So called Plug-in method estimates the real value based on the observed ones and then uses the common function for estimating the desired parameter. The other estimator, known as bias smoother, only performs a bias correction on the usual estimator by computing a factor. Behavior of both estimators was studied under different residual distributions, goodness of fit and sample sizes. It is worth noting that, in covariance analysis model, the high the sample size, the better for accuracy and precision. Results suggest that the Plug-in estimator presented the best performance both for accuracy and precision under normality, for the distinct evaluated situations. When the estimators had been evaluated in the model of ANCOVA with the residues distributed for Gamma, the same ones had gotten the worse performance in relation when they were evaluated by the others distributions.


Estudou-se o modelo de análise de covariância com um fator e erro de medida na covariável. Avaliou-se, neste modelo, por meio de simulação, a acurácia e precisão de dois estimadores, propostos na literatura para estimar parâmetros de um modelo de regressão com erro de medida. Sobre diferentes distribuições dos resíduos, coeficientes de determinação e tamanhos amostrais, estudou-se o comportamento de ambos os estimadores. No modelo de análise de covariância, quanto maior o tamanho amostral e o coeficiente de determinação, melhor se comportam os estimadores avaliados com relação à acurácia e à precisão. As conclusões encontradas sugerem que o estimador Plug-in obteve desempenho superior, tanto na acurácia quanto na precisão em situações de normalidade, nas diferentes configurações analisadas sobre o modelo avaliado. Quando os estimadores foram avaliados no modelo de ANCOVA com os resíduos distribuídos pela Gama, obtiveram o pior desempenho em relação a quando eram avaliados pelas demais distribuições.

5.
Artigo em Português | LILACS-Express | VETINDEX | ID: biblio-1478403

Resumo

The present paper approaches the covariance analysis model with one factor and measurement error in the covariate. Accuracy and precision of two estimators suggested in the literature were evaluated through data simulation, for estimating parameters of a regression model with measurement error. So called Plug-in method estimates the real value based on the observed ones and then uses the common function for estimating the desired parameter. The other estimator, known as bias smoother, only performs a bias correction on the usual estimator by computing a factor. Behavior of both estimators was studied under different residual distributions, goodness of fit and sample sizes. It is worth noting that, in covariance analysis model, the high the sample size, the better for accuracy and precision. Results suggest that the Plug-in estimator presented the best performance both for accuracy and precision under normality, for the distinct evaluated situations. When the estimators had been evaluated in the model of ANCOVA with the residues distributed for Gamma, the same ones had gotten the worse performance in relation when they were evaluated by the others distributions.


Estudou-se o modelo de análise de covariância com um fator e erro de medida na covariável. Avaliou-se, neste modelo, por meio de simulação, a acurácia e precisão de dois estimadores, propostos na literatura para estimar parâmetros de um modelo de regressão com erro de medida. Sobre diferentes distribuições dos resíduos, coeficientes de determinação e tamanhos amostrais, estudou-se o comportamento de ambos os estimadores. No modelo de análise de covariância, quanto maior o tamanho amostral e o coeficiente de determinação, melhor se comportam os estimadores avaliados com relação à acurácia e à precisão. As conclusões encontradas sugerem que o estimador Plug-in obteve desempenho superior, tanto na acurácia quanto na precisão em situações de normalidade, nas diferentes configurações analisadas sobre o modelo avaliado. Quando os estimadores foram avaliados no modelo de ANCOVA com os resíduos distribuídos pela Gama, obtiveram o pior desempenho em relação a quando eram avaliados pelas demais distribuições.

6.
Tese em Português | VETTESES | ID: vtt-806

Resumo

A computação paralela vem crescendo nos últimos anos em virtude do menor custo dos computadores e do aumento exponencial dos bancos de dados. O processamento em paralelo envolve a execução de múltiplas tarefas simultaneamente em diferentes processadores. No contexto da seleção genômica, o grande número de marcadores genéticos utilizado nas análises, bem como a grande demanda computacional dos modelos bayesianos fundamentados nos métodos de Monte Carlo Via Cadeias de Markov, faz com que certas análises despendem semanas ou meses de processamento. Assim, a computação paralela representa uma solução natural a este problema. O método usado para análise foi o BayesCπ, o qual possui apenas passos do Amostrador de Gibbs. O algoritmo foi inicialmente escrito na forma sequencial usando o FORTRAN. Duas estratégias de paralelização foram então estudadas. A primeira envolveu a análise de múltiplas cadeias em paralelo, sendo recomendada na situação em que o burn-in não seja longo. A segunda estratégia referiu-se à paralelização da própria cadeia, sendo indicada para situações em que o burn-in é muito longo. Utilizou-se a biblioteca MPI e o pacote OpenMPI associado ao compilador gfortran para tal propósito. As computações foram realizadas em um computador pessoal, com seis núcleos de processamento de 3,3 GHz e 16 GB de memória RAM e em um cluster com 120 processadores de 2,77 GHz. Foram utilizados dados simulados para duas características produtivas de bovinos de leite, referentes a 10.000 marcadores e 4.100 indivíduos. No computador pessoal, o algoritmo sequencial foi processado em 77,29 horas e ao usar múltiplas cadeias em paralelo o processamento foi quase cinco vezes mais rápido com seis núcleos de processamento. A relação de desempenho entre o algoritmo paralelo e o sequencial foi maior no cluster, pois a sua arquitetura de memória escalona melhor com o número de processadores em uso do que a arquitetura de memória compartilhada do computador pessoal. A segunda estratégia de paralelização apresentou um ganho de desempenho de apenas 19% com dois processadores. Contudo, usando mais processadores não houve melhora de desempenho. Esta estratégia só se aplica em sistemas com arquitetura de memória compartilhada, devido ao elevado overhead (sobrecarga) gerado pela intensa troca de informações e sincronização das tarefas. Conclui-se que a computação paralela é uma técnica de fundamental importância para a seleção genômica, e isto será mais expressivo nos próximos anos devido ao rápido crescimento dos bancos de dados. Estratégias mais eficientes de paralelização da própria cadeia devem ser desenvolvidas, visto que nas situações em que o burn-in é muito longo o processamento de múltiplas cadeias em paralelo não é recomendado. O ideal seria que estas novas abordagens apresentassem bom desempenho em sistemas com arquitetura de memória distribuída (clusters)


Parallel computing has been growing in recent years due to the lower cost of computers and the exponential growth of databases. The parallel processing involves performing multiple tasks simultaneously on different processors. In the context of genomic selection, the large number of genetic markers used in the analyzes as well as the high computational demand of Bayesian models based on methods of Markov Chain Monte Carlo makes that certain analyzes have weeks or months of runtime. Thus parallel computing is a natural solution to this problem. The method used for analysis was BayesCπ, which has only the Gibbs sampling steps. The algorithm was initially written in a sequential manner using FORTRAN. It was studied two parallelization strategies. The first involved the analysis of multiple parallel chains being recommended in the situation that the burn-in is not long. The second strategy is relative to the parallelization of the chain itself, being indicated for cases in which the burn-in time is too long. It was used the MPI library and the packet OpenMPI associated to the gfortran compiler for this purpose. The computations were performed on a personal computer, with six processing cores of 3.3 GHz and 16 GB of RAM (Random Access Memory) and a cluster with 120 processors of 2.77 GHz. Simulated data for two traits of dairy cattle, referring to 10,000 markers and 4,100 individuals, were used. In the personal computer, the sequential algorithm was processed at 77.29 hours and by using parallel multiple chains the processing was almost five times faster with six cores. The performance ratio between parallel and sequential algorithms was higher in the cluster, because its memory architecture scales better with the number of processors in use than the shared memory architecture of the personal computer. The second parallelization strategy presented a performance gain of only 19% with two processors. Using more processors the processing speed was diminishing slowly. This strategy applies only on systems with shared memory architecture, due to the high overhead generated by the intense exchange of information and tasks synchronization. Therefore parallel computing is a technique of fundamental importance for genomic selection and it will be more significant in coming years due to rapid growth of databases. More efficient strategies for parallelization of the chain itself must be developed, because in situations where the burn-in is too long the processing of multiple chains in parallel is not recommended. The ideal would be that these new approaches have good performance in systems with distributed memory architecture (clusters)

7.
Pirassununga; s.n; 02/10/2012. 118 p.
Tese em Português | VETINDEX | ID: biblio-1505106

Resumo

Aproximadamente 15% do faturamento das indústrias brasileiras são provenientes da indústria alimentícia, responsáveis por empregar mais de um milhão de pessoas. [...] Para provar a viabilidade da aplicação das tecnologias desenvolvidas na indústria alimentícia, uma linha de produção de biscoitos foi projetada e construída em escala laboratorial, sensores e atuadores que utilizam tecnologia sem fio com protocolo zigbee foram instalados ao longo da linha. Para que se pudesse analisar a temperatura interna do biscoito durante seu assamento, um encapsulamento a base de cimento refratário foi desenvolvido para proteger o nó sensor, permitindo que esse possa acompanhar o biscoito dentro do forno e coletar a temperatura interna do biscoito. Desenvolveu-se também um sensor capaz de captar, em tempo real, dados referente à massa, através da leitura da corrente utilizada pelo motor do misturador, pois esta corrente está relacionada com o torque aplicado à massa. A metodologia proposta comprovou a viabilidade da utilização de sensores sem fio com protocolo zigbee, e mostrou ser possível estimar o ponto ideal da massa através do sistema desenvolvido, iniciar o processo de fabricação automaticamente e controlar todos os processos envolvidos


Approximately 15% of the revenues of Brazilian industries from the food industry is responsible for employing over a million people. For large scale production is necessary for these industries are technologically prepared, however much of the electronic instrumentation and control equipment still requires foreign technology. To keep up with growth and global trends in this area, it is necessary to promote research and technological innovation. These innovations can improve sales to this sector, mainly in health food and fast preparation. By contrast, many of these companies even have departments of research and development, especially regarding the use of information technology to aggregate electronic instrumentation, focusing on food production. That is precisely where it belongs this project aims to develop an experimental production line mini biscuits with electronic monitoring and computing, which can estimate the ideal point of the mass and control the production of biscuits automatically. To prove the feasibility of applying the technologies developed in the food industry, a biscuit production line was designed and built at the laboratory scale, using sensors and actuators with wireless zigbee protocol were installed along the line. In order to examine the internal temperature of the cookie during its baking, a tunnel-based refractory cement is designed to protect the sensor node, allowing it to follow the cookie into the oven and the temperature inside the collecting biscuit. It was also developed a sensor capable of capturing real time data regarding the mass, by reading the current used by the motor of the mixer, since this current is related to the torque applied to the mass. The proposed methodology proved the feasibility of using wireless sensor zigbee-protocol, and shown to be possible to estimate the ideal point of the mass through the system developed, start the manufacturing process and automatically control all processes involved


Assuntos
Humanos , Biscoitos , Indústria Alimentícia/métodos , Redes de Comunicação de Computadores , Automação , Farinha
8.
Pirassununga; s.n; 02/10/2012. 118 p.
Tese em Português | VETTESES | ID: vtt-1277

Resumo

Aproximadamente 15% do faturamento das indústrias brasileiras são provenientes da indústria alimentícia, responsáveis por empregar mais de um milhão de pessoas. [...] Para provar a viabilidade da aplicação das tecnologias desenvolvidas na indústria alimentícia, uma linha de produção de biscoitos foi projetada e construída em escala laboratorial, sensores e atuadores que utilizam tecnologia sem fio com protocolo zigbee foram instalados ao longo da linha. Para que se pudesse analisar a temperatura interna do biscoito durante seu assamento, um encapsulamento a base de cimento refratário foi desenvolvido para proteger o nó sensor, permitindo que esse possa acompanhar o biscoito dentro do forno e coletar a temperatura interna do biscoito. Desenvolveu-se também um sensor capaz de captar, em tempo real, dados referente à massa, através da leitura da corrente utilizada pelo motor do misturador, pois esta corrente está relacionada com o torque aplicado à massa. A metodologia proposta comprovou a viabilidade da utilização de sensores sem fio com protocolo zigbee, e mostrou ser possível estimar o ponto ideal da massa através do sistema desenvolvido, iniciar o processo de fabricação automaticamente e controlar todos os processos envolvidos (AU)


Approximately 15% of the revenues of Brazilian industries from the food industry is responsible for employing over a million people. For large scale production is necessary for these industries are technologically prepared, however much of the electronic instrumentation and control equipment still requires foreign technology. To keep up with growth and global trends in this area, it is necessary to promote research and technological innovation. These innovations can improve sales to this sector, mainly in health food and fast preparation. By contrast, many of these companies even have departments of research and development, especially regarding the use of information technology to aggregate electronic instrumentation, focusing on food production. That is precisely where it belongs this project aims to develop an experimental production line mini biscuits with electronic monitoring and computing, which can estimate the ideal point of the mass and control the production of biscuits automatically. To prove the feasibility of applying the technologies developed in the food industry, a biscuit production line was designed and built at the laboratory scale, using sensors and actuators with wireless zigbee protocol were installed along the line. In order to examine the internal temperature of the cookie during its baking, a tunnel-based refractory cement is designed to protect the sensor node, allowing it to follow the cookie into the oven and the temperature inside the collecting biscuit. It was also developed a sensor capable of capturing real time data regarding the mass, by reading the current used by the motor of the mixer, since this current is related to the torque applied to the mass. The proposed methodology proved the feasibility of using wireless sensor zigbee-protocol, and shown to be possible to estimate the ideal point of the mass through the system developed, start the manufacturing process and automatically control all processes involved (AU)


Assuntos
Humanos , Indústria Alimentícia/métodos , Biscoitos , Redes de Comunicação de Computadores , Automação , Farinha
9.
Campo digit ; 1(1)2006.
Artigo em Português | LILACS-Express | VETINDEX | ID: biblio-1471635

Resumo

Os grids computacionais surgiram da idéia de se compartilhar recursos de computadores que estejam ociosos. Desta forma, houve o empenho de alguns pesquisadores em trabalhar com a computação distribuída geograficamente. A idéia dos grids é justamente poder utilizar o poder de processamento, armazenamento e outros recursos computacionais ao redor do mundo. Assim, tem-se alguns projetos com estes objetivos, e dentre eles estão o Condor, Legion, Set@home, MyGrid, OurGrid. Uma vez que Grid é uma nova área de pesquisa, o objetivo deste artigo é mostrar algumas características sobre os grids computacionais, e apresentar alguns projetos importantes nesta área.Abstract Computational Grids appeared from the idea of sharing resources of idle computers. So, there was a persistence of some researchers in working with computes geographically distributed. The idea of grids is just to be able of use the processing power, storage and other computational resources around of the world. Then, there are some projects with these objectives and amongst them are: the Condor, Legion, Set@home, MyGrid, OurGrid. Once Grid is a new research area, the objective of this article is to show some characteristics about computational grids and present some important projects in this area.

10.
Campo digit. ; 1(1)2006.
Artigo em Português | VETINDEX | ID: vti-714951

Resumo

Os grids computacionais surgiram da idéia de se compartilhar recursos de computadores que estejam ociosos. Desta forma, houve o empenho de alguns pesquisadores em trabalhar com a computação distribuída geograficamente. A idéia dos grids é justamente poder utilizar o poder de processamento, armazenamento e outros recursos computacionais ao redor do mundo. Assim, tem-se alguns projetos com estes objetivos, e dentre eles estão o Condor, Legion, Set@home, MyGrid, OurGrid. Uma vez que Grid é uma nova área de pesquisa, o objetivo deste artigo é mostrar algumas características sobre os grids computacionais, e apresentar alguns projetos importantes nesta área.Abstract Computational Grids appeared from the idea of sharing resources of idle computers. So, there was a persistence of some researchers in working with computes geographically distributed. The idea of grids is just to be able of use the processing power, storage and other computational resources around of the world. Then, there are some projects with these objectives and amongst them are: the Condor, Legion, Set@home, MyGrid, OurGrid. Once Grid is a new research area, the objective of this article is to show some characteristics about computational grids and present some important projects in this area.

SELEÇÃO DE REFERÊNCIAS
DETALHE DA PESQUISA