quarta-feira, 17 de dezembro de 2014

Método identifica regiões cerebrais relacionadas com o déficit de atenção

Agência FAPESP – Um grupo de pesquisadores do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP) está desenvolvendo técnicas estatísticas e computacionais para analisar grandes volumes de dados, como imagens de ressonância magnética do cérebro, a fim de identificar marcadores biológicos de disfunções neurológicas como o transtorno de déficit de atenção com hiperatividade (TDAH).
Resultados da pesquisa, realizada com apoio da FAPESP, foram apresentados durante o encontro Brazil-UK Frontiers of Engineering, em novembro, em Jarinu, no interior de São Paulo.
Promovido pela Royal Academy of Engineering, do Reino Unido, em colaboração com a FAPESP, o evento reuniu 63 jovens pesquisadores de diferentes áreas da Engenharia – 33 do Brasil e 30 do Reino Unido –, atuantes em universidades, instituições de pesquisa e empresas.
“Há oito anos começamos a desenvolver técnicas que relacionam Estatística e Ciência da Computação para analisar conjuntos de dados em Neurociência e Biologia Molecular e tentar identificar marcadores biológicos mais objetivos e baseados em análises quantitativas de disfunções cerebrais”, disse André Fujita, professor do IME-USP e coordenador do projeto, à Agência FAPESP.
De acordo com Fujita, as técnicas em desenvolvimento permitem comparar, em diferentes populações, a variabilidade das estruturas de agrupamento de dados biológicos, como as das redes neurais.
Já se sabia por meio de estudos realizados pelo mesmo grupo do IME-USP que a estrutura da rede neuronal dos pacientes diagnosticados com TDAH é diferente. Nessas pessoas, o cérebro apresenta uma desorganização do funcionamento dos circuitos neuronais, chamada entropia de rede.
Agora, os pesquisadores usaram o método de análise estatística de variabilidade de estrutura de agrupamentos de dados biológicos – chamado Analys of Cluster Structure Variability (Acnova), desenvolvido em colaboração com colegas da Universidade Federal do ABC (UFABC), da Princeton University, nos Estados Unidos, da Universidade Federal de São Paulo (Unifesp) e da Universidade Estadual de Campinas (Unicamp) – para identificar regiões específicas do cérebro envolvidas com o transtorno que apresentam maior entropia de rede.
No estudo, eles compararam imagens de ressonância magnética funcional (fMRI) do cérebro em estado de repouso de mais de 600 crianças e jovens, com idades entre 7 e 21 anos, com e sem diagnóstico de TDAH.
As imagens, feitas em oito países, são do consórcio internacional de pesquisa ADHD-200, lançado por universidades e instituições de pesquisa dos Estados Unidos e da China, que mantém um banco de dados aberto com imagens de fMRI do cérebro de crianças e adolescentes com TDAH ou não. A comparação das imagens cerebrais indicou que existem várias diferenças na estrutura de agrupamento do cérebro.


As estruturas de agrupamento das sub-redes neurais que constituem as áreas dos giros pós-central, temporal superior e inferior do cérebro de pacientes com TDAH apresentaram entropia de rede estatisticamente mais elevada em comparação com crianças e adolescentes com desenvolvimento cerebral normal, apontou o método de análise estatística.
Além disso, o método identificou diferenças em regiões do cérebro até então não relacionadas com o transtorno, como o giro angular – que contribui para a integração de informações e desempenha papel importante em muitos processos cognitivos –, afirmaram os autores do estudo.
Fujita estima que, no futuro, poderá ser possível diagnosticar o transtorno neurobiológico por imagens de ressonância magnética funcional do cérebro, comparando as estruturas das redes neurais. E que a nova técnica poderá ser aplicada a outros conjuntos de dados relacionados a outras condições.
“O método que propomos também pode ser aplicado a outros conjuntos de dados biológicos de interesse, não apenas imagens de ressonância magnética funcional, como os de expressão de genes de pessoas diagnosticadas com câncer de mama”, acrescentou.
Resultados da pesquisa foram publicados nas revistas Neuroimage e Statistics in Medicine, entre outras.
O artigo “Measuring network's entropy in ADHD: A new approach to investigate neuropsychiatric disorders (doi: 10.1016/j.neuroimage.2013.03.035), de Sato e outros, pode ser lido na revista Neuroimage emwww.sciencedirect.com/science/article/pii/S1053811913002772.
E o artigo “A non-parametric statistical test to compare clusters with applications in functional magnetic resonance imaging data”(doi: 10.1002/sim.6292), de Fujita e outros, pode ser lido na revista Statistics in Medicine emonlinelibrary.wiley.com/doi/10.1002/sim.6292/pdf

quinta-feira, 11 de dezembro de 2014

Emoções negativas influem no consumo de alimento energético

Por Rosemeire Soares Talamone, de Ribeirão Preto - rosetala@usp.br

Problemas comuns do cotidiano como questões financeiras, discussões com o cônjuge, traição, preocupações com os filhos e até morte na família e violência doméstica, levam a emoções negativas como angustia, tristeza, ansiedade e, mais que isso, podem levar mulheres a aumentarem significativamente a ingestão de alimentos energéticos. Esse é o principal resultado de uma pesquisa do Departamento de Clínica Médica da Faculdade de Medicina de Ribeirão Preto (FMRP) da USP. Nessas situações, os pesquisadores verificaram que as pessoas não escolhem alimentos doces saudáveis, como frutas, por exemplo, mas preferem os não saudáveis, que na pesquisa foram representados pelo brigadeiro.

Para as pesquisadoras, as nutricionistas Ana Carolina de Aguiar Moreira e sua orientadora Rosa Wanda Diez Garcia, esse dado serve como um alerta para a população em geral. “Como sempre temos algo para comer ao nosso alcance, quando sofremos algum tipo de pressão, estresse, preocupação ou sentimentos que nos desagradam, é fácil recorrer ao consumo de alguma coisa, principalmente doces para nos aliviar. Isso é preocupante porque como estamos expostos a muitas tensões, passamos a incorporar essa prática de nos aliviar com guloseimas o que pode levar ao excesso de peso e, com este, pode vir associado uma série de enfermidades crônicas, como diabetes e hipertensão.”
O objetivo do estudo foi verificar a influência das emoções negativas, geradas por tensões do cotidiano, no consumo energético e de doces considerados saudáveis e não saudáveis por mulheres com sobrepeso e com peso normal, chamadas eutróficas.
Emoções e reações
Para chegar a esse resultado, 43 voluntárias, 20 com sobrepeso e 23 com peso normal, passaram por duas intervenções, com sessões de vídeos, em dias diferentes, com intervalo de no mínimo dois e no máximo de sete dias. Cada mulher assistiu a dois vídeos em pequenos grupos. O video que buscava gerar emoções negativas foi montado com trechos de histórias que abordavam problemas como: discussão entre cônjuges, problemas no trânsito, dificuldades financeiras, falta de reconhecimento no trabalho, acidente no trabalho, assédio sexual, precariedade no sistema público de saúde, traição, toxicodependência (álcool e drogas), morte na família e violência doméstica. O outro video que tinha o objetivo de não gerar emoção, abordava situações corriqueiras como: acordar, escovar os dentes, caminhar, conversar com colegas, arrumar a casa, dormir, entre outras.
Após as sessões, foram oferecidos lanches às voluntárias. Elas puderam consumir à vontade. O lanche era composto por salgados, pão de queijo e bolinha frita de queijo, e bebidas, suco de laranja sem açúcar e refrigerante e, entre estes alimentos, haviam os alimentos doces: uvas representando o doce saudável, e o brigadeiro, considerado não saudável.
Ao ser comparado o consumo energético quando elas foram expostas ao vídeo com cenas como acordar e dormir, que visava não gerar emoção, o consumo energético das mulheres com sobrepeso foi 39% maior em relação àquelas com peso normal, mostrando que este grupo come mais que o grupo de mulheres com peso normal.
Quando as mulheres de ambos os grupos foram expostas às emoções geradas por problemas como questões financeiras e violência doméstica, entre outros, os dois grupos aumentaram significativamente o consumo energético, principalmente comendo doces não saudáveis. “Curiosamente, as mulheres com peso normal apresentaram aumento significativamente maior do que as participantes com sobrepeso, em relação ao vídeo que visava não gerar emoção. Tanto o consumo energético foi maior, como o de doce não saudável. Elas aumentaram em 82% a ingestão de doce não saudável e 51%, o consumo energético, enquanto o grupo com sobrepeso aumentou 48% e 39%, respectivamente.”

Para as pesquisadoras, uma possível explicação para esse resultado é que as pessoas com excesso de peso são mais vigilantes e podem estar mais alertas para situações em que podem se exceder.  O grande diferencial desse estudo, segundo Ana Carolina, foi ter avaliado a influência de emoções provocadas por problemas comuns do cotidiano.
“Geralmente, os estudos experimentais abordam emoções muito especificas que não ocorrem com tanta frequência no dia a dia e que, portanto, não simulam condições de vida mais realistas.”
A pesquisa de mestrado Influência das emoções geradas por eventos de vida no consumo alimentar em mulheres foi defendida em 2014, junto ao programa de pós-graduação em Clínica Médica - Investigações  Biomédica, na FM
RP.

sexta-feira, 14 de novembro de 2014

Molécula mostra potencial contra insuficiência cardíaca

Por Karina ToledoAgência FAPESP – Uma molécula sintética descoberta por pesquisadores da Universidade Stanford, nos Estados Unidos, e da Universidade de São Paulo (USP) demonstrou, em ensaios pré-clínicos, potencial para se tornar uma aliada no tratamento da insuficiência cardíaca e de outras doenças. Os primeiros testes com humanos, apenas para atestar a segurança do composto, devem ter início no segundo semestre deste ano, com apoio privado.
Denominada Alda-1, a droga é capaz de ativar uma enzima chamada ALDH2 (aldeído desidrogenase-2), existente na mitocôndria e essencial para o bom funcionamento de todas as células, inclusive as cardíacas.
“Essa enzima tem uma enorme importância para a célula, pois ajuda a evitar o acúmulo de aldeídos – moléculas tóxicas e altamente reativas produzidas pela célula. Cada vez mais, a deficiência de ALDH2 tem sido associada a diferentes tipos de doença”, contou Julio Cesar Batista Ferreira, professor do Departamento de Anatomia do Instituto de Ciências Biomédicas da USP e coordenador da pesquisa apoiada pela FAPESP no Brasil.
Em um experimento recente, realizado durante o mestrado de Kátia Maria Sampaio Gomes – sob orientação de Ferreira e com Bolsa da FAPESP –, o grupo tratou ratos portadores de insuficiência cardíaca com Alda-1 durante seis semanas e observou um aumento de 40% na capacidade do coração de bombear sangue.
Os resultados foram divulgados na edição de junho da revista Cardiovascular Research. O projeto venceu a Olimpíada USP de Inovação 2013 na categoria “Prova de Conceito”.
O modelo animal usado na pesquisa simula uma das principais etiologias da insuficiência cardíaca: o infarto agudo do miocárdio. Para induzir o problema no rato, os cientistas amarram uma de suas artérias coronárias. A falta de irrigação sanguínea causa a morte imediata de aproximadamente 30% das células cardíacas. As restantes passam a trabalhar dobrado para compensar a lesão e acabam entrando em colapso. Após um mês, o animal já apresenta sinais de insuficiência cardíaca.
“Iniciamos o tratamento com Alda-1 quatro semanas após o infarto induzido, quando os animais já apresentavam uma função cardíaca prejudicada. Após seis semanas de tratamento, observamos aumento de 40% no volume de sangue bombeado no grupo que recebeu a droga. Já no grupo placebo a função cardíaca havia caído ainda mais”, contou Ferreira.
Primeiros achadosA Alda-1 foi descoberta ainda durante o pós-doutorado de Ferreira, realizado em Stanford com apoio da FAPESP.
Em um estudo publicado em 2011 na revista Science Translational Medicine, o grupo demonstrou que, ao ativar a enzima ALDH2 nas células cardíacas, a Alda-1 poderia proteger o coração após um infarto.
“Hoje, sabemos que o excesso de aldeídos prejudica diretamente o metabolismo mitocondrial, resultando em menor produção de ATP (adenosina trifosfato, molécula que armazena energia) e maior liberação de moléculas reativas como os radicais livres e os próprios aldeídos. Com o metabolismo prejudicado, a célula acaba morrendo. Nesse sentido, a Alda-1 tem um papel importante, pois protege a célula desse colapso metabólico induzido por excesso de aldeídos”, explicou Ferreira.
A ALDH2 tem justamente a missão de eliminar os aldeídos, mas sua atividade costuma estar diminuída em células cardíacas após um infarto ou em pacientes com insuficiência cardíaca. “Os próprios aldeídos em excesso acabam inativando a ALDH2 e ela não consegue removê-los de forma eficiente, criando um ciclo vicioso que resulta na morte celular”, explicou Ferreira.
No artigo de 2011, os cientistas mostraram que uma das drogas mais usadas em pacientes infartados para promover a vasodilatação – a nitroglicerina – inibe ainda mais a atividade da ALDH2, acelerando o processo de morte das células cardíacas. Mas experimentos com ratos indicaram que esse efeito deletério da nitroglicerina poderia ser neutralizado se, concomitantemente, a Alda-1 fosse administrada (leia mais em http://agencia.fapesp.br/14904).
Em uma revisão recente publicada na revista Physiological Reviews, os grupos de Stanford e da USP discutem mais amplamente o papel da ALDH2 e as oportunidades terapêuticas de substâncias capazes de ativar a expressão dessa enzima.
“Como os aldeídos são capazes de entrar na circulação e ligar-se a proteínas de órgãos distantes, nossa hipótese é que o tratamento com Alda-1 poderia evitar o efeito cascata que costuma ocorrer em pacientes com insuficiência cardíaca e acometer outros órgãos”, disse Ferreira.
Ao comparar amostras de sangue de pacientes com insuficiência cardíaca e de pessoas saudáveis, o grupo de Ferreira observou um nível três vezes maior de aldeídos circulantes. “Estimamos que no coração o nível seja 10 vezes maior”, disse o pesquisador.
Ensaios clínicosSob a coordenação de Daria Mochly-Rosen, professora do Departamento de Biologia Química e de Sistemas de Stanford, o grupo da universidade norte-americana criou a startup Aldea Pharmaceuticals para tentar transformar a Alda-1 – ainda uma droga experimental – em um produto comercial.
“Eles acabaram de obter financiamento privado para iniciar o ensaio clínico de fase 1, que basicamente tem o objetivo de avaliar a toxicidade da molécula em indivíduos saudáveis. Se os testes forem bem-sucedidos, poderão ter autorização para testar em portadores de uma determinada doença”, explicou Ferreira
Inicialmente, porém, o foco da Aldea – que não tem participação brasileira – não serão os pacientes com insuficiência cardíaca e sim portadores de uma mutação no gene da ALDH2, que afeta 600 milhões de pessoas no mundo (45% da população oriental, sendo a mutação mais frequente no mundo) e as torna mais suscetíveis aos efeitos nocivos do álcool – substância que ao ser metabolizada libera grande quantidade de aldeídos.
“Essa mutação reduz a atividade da ALDH2 em até 95%. Pessoas com essa mutação têm mais chance de desenvolver doenças associadas ao álcool, como câncer de esôfago. E, mesmo sem beber, têm maior risco de sofrer de doenças cardiovasculares e neuronais pela dificuldade de se livrar dos aldeídos”. A Alda-1 é capaz de aumentar a atividade da ALDH2 mutante em até 10 vezes, apresentando um grande potencial terapêutico para os indivíduos portadores da mutação”, contou Ferreira.
A Aldea deve testar ainda a eficiência da molécula Alda-1 na prevenção de problemas decorrentes do consumo excessivo de álcool e no tratamento emergencial de pacientes em coma alcoólico. Segundo Ferreira, a linha de doenças cardíacas também é uma das que a startup pretende investir no futuro.
“Os pesquisadores de Stanford estão fazendo uma série de estudos para otimizar a molécula, modificando sua estrutura a fim de torná-la mais solúvel, com efeito mais prolongado e com menor toxicidade. Nós temos um contrato para testar essas variantes nos modelos de nosso laboratório”, disse Ferreira.
 


quinta-feira, 14 de agosto de 2014

Descoberta de um pterossauro em Deserto Cretáceo lança Insights sobre a ontogenia e o comportamento dos répteis voadores

Ossos de pterossauro com pelo menos 47 indivíduos em um depósito  de um deserto Cretáceo, lançando nova luz sobre vários aspectos biológicos desses répteis voadores. O material representa um novo pterossauro, Caiuajara dobruskii gen. et sp. que é a ocorrência mais ao sul, da classe desdentado Tapejaridae (Tapejarinae, Pterodactyloidea). Caiuajara dobruskii difere de todos os outros membros desta classe em várias características do crânio, incluindo a presença de uma expansão óssea sagital ventral projetada dentro do naso-antorbital fenestral, que é formado pela premaxiar; e as características do maxilar inferior, como uma depressão arredondada marcado na concavidade oclusal do dentário. Variação ontogenética de Caiuajara dobruskii se reflete principalmente no tamanho e inclinação da crista pré-maxilar, passando de pequena e inclinada (~ 115 °) em juvenis de grande e íngreme (~ 90 °) em adultos. Nenhum recurso ontogenéticos particulares são observadas em elementos pós-cranianos. As informações disponíveis sugerem que esta espécie era gregário, vivendo em colônias, e muito provavelmente precoce, sendo capaz de voar muito jovem, o que poderia ter sido uma tendência geral para pterossauros.
texto completo em:
Discovery of a Rare Pterosaur Bone Bed in a Cretaceous Desert with Insights on Ontogeny and Behavior of Flying Reptiles


quarta-feira, 23 de julho de 2014

Pelo de poodle é similar ao de carneiro e pode virar tecido

Os pelos de cães da raça poodle apresentam características idênticas à lã de carneiro, e podem ser utilizados pela indústria têxtil para fabricar tecidos. É o que mostra a dissertação de mestrado do pesquisador Renato Nogueirol Lobo, da Escola de Artes, Ciências e Humanidades (EACH) da USP. Segundo Lobo, para produzir uma tonelada de fio, seriam necessários 600 quilos de pelo de poodle, sendo que essa quantidade poderia ser obtida por meio da tosa de cerca de 800 animais.

“Trata-se de uma alternativa para diminuir a quantidade de pelos descartados em pet shops por meio da reciclagem desses resíduos, que devem ter coleta especial”, justifica, ressaltando que “os fios poderiam ser usados para produzir qualquer tipo de roupa, mas o foco do projeto é reciclagem do pelo de cachorro para fazer roupa para pet.”De acordo com Lobo, a única diferença é que os pelos de poodle são fiáveis em fibra curta, entre 12 a 40 milímetros, e as de carneiro são fiáveis em fibra longa, entre 40 a 80 milímetros.”Essa diferença não altera o processo de fiação nem causa nenhum tipo de prejuízo ao maquinário”, esclarece. No mestrado, o pesquisador produziu um quilo de fio, composto por 50% de pelos de poodle e 50% de acrílico.





“A quantidade de pelo em cada tosa varia de acordo com o tamanho do animal. Para um poodle toy [menores da raça] são cerca de 120 gramas. Já um poodle big[o maior da raça] pode deixar cerca de 1,200 quilos de pelo em cada tosa. Por isso, consideramos uma média de cerca de 700 gramas de pelo por animal”, explica.

Os testes realizados constataram que este fio é semelhante à lã de carneiro em relação à maciez, tingibilidade (capacidade de receber corante), alongamento, absorção de líquido e isolamento térmico. “Um leigo não conseguiria diferenciar um fio que foi confeccionado com pelo de poodle de um fio confeccionado com o de carneiro. Apenas pessoas com conhecimento técnico poderiam perceber a diferença ao analisar o fio e constatar que se trata de uma fibra curta”, diz.

Para realizar a pesquisa, Lobo recolheu dez amostras de pelo de poodle em dez pet shops da cidade de São Paulo, sendo que cada amostra tinha peso variando de ½ a 1 quilo. Após passar por um processo de lavagem, as amostras foram separadas por cor: pelos brancos e creme; e pelos marrons e pretos. “A ideia era saber se havia alguma diferença em relação à finura dos fios claros e escuros”, conta. Os testes indicaram não haver diferença neste aspecto. O próximo passou foi realizar uma série de testes ligados à resistência, alongamento dos pelos, e comprimento de fibra.

Experiência empírica

A ideia de utilizar pelos de poodle como matéria prima para o setor têxtil surgiu por volta de 2008, quando Lobo atuava como professor do Serviço Nacional de Aprendizagem Industrial (Senai), unidade Francisco Matarazzo, em São Paulo — e onde, atualmente, exerce o cargo de coordenador de cursos. Ele explica que a ideia surgiu durante uma conversa com suas alunas: “Uma delas tinha um cão poodle e comentou comigo sobre o aspecto semelhante entre as fibras de poodle e a lã de carneiro e que seria interessante utilizar o pelo do animal na indústria têxtil”, diz. Foi quando o grupo decidiu realizar testes práticos com os pelos de poodle para produzir tecidos.

Mestrado e doutorado

Em 2011, Lobo decidiu ingressar no mestrado acadêmico da Escola de Artes, Ciências e Humanidades com intuito de sair da experiência empírica obtida no Senai a fim de validar, de modo científico, a viabilidade de utilização dos pelos de poodle como matéria-prima para a produção de tecido pela indústria têxtil. Por isso, os estudos foram focados na análise dos pelos e na estrutura do fio produzidos com estes pelos. O mestrado teve orientação da professora Regina Aparecida Sanches e deve ser apresentado nos próximos meses. O projeto já foi divulgado em congressos na Croácia e na Alemanha.



“Foi um processo empírico, baseado no erro e no acerto para chegarmos à composição ideal do fio. Começamos com 25% de pelo de poodle e 75% de acrílico. Fizemos diversos testes, com diversas composições até chegarmos à porcentagem de 50% de pelos de poodle e 50% de acrílico para produzir o fio”, explica. Foram confeccionadas várias amostras de tecido, denominado “caniche” (que significa poodle em francês), tanto cru como tingido, sendo cerca de 1 quilo de malha e 10 metros de tecido plano. Na época, o professor contou a colaboração de duas indústrias têxteis.

Projeto Caniche foi apresentado em algumas feiras de inovação em 2008, como a Inova Senai, promovida pelo Senai, e na Feira Brasileira de Ciências e Engenharia (Febrace), promovida pela Escola Politécnica (Poli) da USP. Na Febrace, o projeto foi apresentado na área de Ciências Biológicas pelas alunas Cibelle Gaijutis de Azevedo e Ellen Tais Santana, com orientação de Lobo e co-orientação da professora Aparecida Bezerra Nunes, do SENAI Francisco Matarazzo.

Agora que o pesquisador já constatou cientificamente a viabilidade do projeto, o próximo passo será a continuidade por meio de uma pesquisa de doutorado. De acordo com Lobo, a ideia central será a produção de tecidos utilizando pelos de poodle, mas, desta vez, com todo o critério científico que uma pesquisa deste porte exige.
Fotos:  Renato Nogueirol Lobo

segunda-feira, 21 de julho de 2014

FAU disponibiliza acervo digitalizado da Revista Acrópole

do USP Online, com informações da FAU e da Assessoria de Imprensa da USP

O objetivo da equipe — formada pelo professor da FAU e diretor do Museu de Arte Contemporânea (MAC) da USP, Hugo Segawa, pela professora Marcia Rosetto, pela bibliotecária Dina Elisabete Uliana e pela estagiária Carla Catarine Moura Queiroz — foi o de garantir a preservação da coleção, ampliar o acesso a esse importante acervo, subsidiar a pesquisa na área de Arquitetura e Urbanismo realizada no País e consolidar conhecimento e competências específicas com a elaboração de diretrizes técnicas e operacionais para digitalização e disponibilização de periódicos de interesse histórico e científico.


Além da reprodução integral em meio digital da coleção, o projeto também realizou a conversão dos textos e imagens digitalizadas, permitindo busca direta e acesso online, a criação de um banco de dados para o arquivamento da coleção digital e a organização do website para a busca dos registros e textos completos.


Editada entre os anos de 1938 e 1971, a revista Acrópole é uma publicação especializada em arquitetura que apresenta as realizações desenvolvidas não só por arquitetos paulistas, mas também nacionais e internacionais. Em 34 anos de publicação, a revista registrou projetos de edifícios, urbanização, paisagismo, desenho industrial, comunicação visual, arquitetura de interiores e detalhamento arquitetônico, além de textos teóricos, pesquisas, resenhas e notícias de interesse para os profissionais  da da área.


Vanguarda e tendência“Nos anos 1950 e, sobretudo na década de 1960, não havia arquiteto ou estudante de arquitetura que não consultasse ou colecionasse a revista”, relata Hugo Segawa. “Recordo-me do testemunho de arquitetos gaúchos, jovens profissionais na virada para os anos 1960, que dialogavam com os arquitetos paulistas sem ao menos se conhecerem, folheando as páginas da revista; ou um estudante de arquitetura na segunda metade dos anos 1960 que assinava a Acrópole e a consultava como se fosse um tratado da arquitetura”, relembra.


De acordo com o professor, Acrópole era uma revista comercial, que sobrevivia de publicidade, mas paradoxalmente, pode ter sido ao mesmo tempo uma revista de vanguarda, de tendência, de ideologias e convicções. “Decerto foram os muitos arquitetos-consultores e colaboradores que, ao longo da longeva existência (a maior entre as congêneres de meados do século passado) delinearam as diversas personalidades da Acrópole ao longo de mais de três décadas, compondo um impressionante e surpreendente testemunho de época”, registra Segawa.


Em 2012, a Pró-Reitoria de Cultura e Extensão Universitária da USP lançou o Edital de Preservação de Acervos e Patrimônio Cultura, e a Biblioteca da FAU, responsável pelo desenvolvimento e manutenção do Índice de Arquitetura Brasileira (IAB), indexação dos periódicos que realiza desde a década de 1960, planejou a expansão do IAB aproveitando o potencial das tecnologias. Com o projeto “Digitalização e Acesso Online à Revista Acrópole: Conservação e Preservação da Memória da Arquitetura e Urbanismo”, a FAU obteve o recurso da Pró-Reitoria.


Para Hugo Segawa, recuperar e abrir esta coleção é “trazer de corpo inteiro um testemunho de um rico período, à espera de desvendamentos por parte de pesquisadores com olhares das mais distintas disciplinas”. O diretor do MAC destaca ainda que, mais do que a digitalização em si, o objetivo foi desenvolver um modelo metodológico de digitalização para esse tipo de material para orientar a futura digitalização e disponibilização de outros conteúdos de publicações periódicas especializadas de igual relevância tanto na USP, como em outras instituições.


A Faculdade de Arquitetura e Urbanismo (FAU) da USP digitalizou a coleção completa da Revista Acrópole, especializada em arquitetura e urbanismo, que circulou entre os anos de 1938 e 1971. Ao todo são 391 fascículos e mais de 23 mil páginas disponíveis no website, lançado no dia 25 de junho. O projeto de digitalização foi uma iniciativa da Biblioteca da FAU, detentora de uma das poucas coleções completas da revista, e contou com o apoio da Pró-Reitoria de Cultura e Extensão Universitária (PRCEU) da USP e das herdeiras do diretor-proprietário da Revista Acrópole e da Editora Max Gruenwald & Cia., Manfredo Gruenwald.


sexta-feira, 30 de maio de 2014

Pesquisa internacional identifica nova via no metabolismo de fungos


Por José Tadeu Arantes
Agência FAPESP – Apesar de o metabolismo dos fungos ser utilizado pela humanidade desde a pré-história – na fabricação de pães, queijos, cervejas, vinhos etc. –, detalhes dos mecanismos desses processos ainda são relativamente pouco estudados. Por isso mesmo, os estudos do metabolismo dos fungos são tão importantes. Ainda mais porque, entre os produtos desse metabolismo, estão substâncias nitrogenadas que constituem o grupo dos alcaloides. Essas apresentam vários efeitos biológicos: alguns de intoxicação (como ocorre com os derivados da dietilamida do ácido lisérgico, o LSD), outros medicinalmente úteis (caso das penicilinas). O químico Roberto Gomes de Souza Berlinck, professor titular do Instituto de Química de São Carlos da Universidade de São Paulo (IQSC-USP) e membro da coordenação do programa BIOTA-FAPESP, investigou o metabolismo do Penicillium citrinum, um fungo de origem marinha. O trabalho revelou uma via metabólica insuspeitada utilizada por esse organismo. O estudo acaba de ser relatado no artigo Total synthesis and isolation of citrinalin and cyclopiamine congeners, publicado na revista Nature.

“Descobrimos como esse fungo biossintetiza duas substâncias da classe dos alcaloides, citrinalinas A e B, de maneira relativamente diferenciada, que nunca havia sido relatada antes para fungos relacionados. Isso nos permitiu formular um novo entendimento do processo”, disse Berlinck àAgência FAPESPSegundo ele, o metabolismo incomum se deve ao fato de o fungo utilizar um aminoácido – a ornitina – que não entra na composição das proteínas de maneira muito mais eficiente do que o aminoácido prolina, que entra na composição das proteínas.
“Até o nosso estudo, os pesquisadores acreditavam que a prolina era o aminoácido necessário para fungos semelhantes biossintetizarem substâncias correlatas”, disse Berlinck. O estudo foi realizado no âmbito do projeto de pesquisa “International collaboration in the chemistry of alkaloid natural product biosynthesis”, conduzido por Berlinck com a colaboração de David Sherman, do Life Sciences Institute da University of Michigan, nos Estados Unidos, e apoiado pela FAPESP.
“Por ser uma área relativamente nova para nós, acabamos por realizar o estudo de maneira um pouco ‘ingênua’, sem ideias preconcebidas”, afirmou Berlinck. “Assim, nossa aparente desvantagem transformou-se em vantagem, pois testamos todas as hipóteses possíveis.” Ao mesmo tempo, contou Berlinck, Richmond Sarpong, professor da Faculdade de Química da University of California em Berkeley, sintetizou as mesmas citrinalinas e uma outra substância, a ciclopiamina, em laboratório. “Sherman já tinha colaborado com o doutor Sarpong e nos colocou em contato. Decidimos elaborar um trabalho conjunto, tratando da síntese das substâncias pela via natural, por meio do fungo, e pela via artificial, em laboratório”, disse Berlinck.
Dessa colaboração resultou o artigo publicado na Nature, assinado por Berlinck, Sarpong e outros 10 autores, entre eles Stelamar Romminger e Eli Fernando Pimenta, ambos também do IQSC-SP.







sábado, 26 de abril de 2014

Cinema comercial e “qualidade” podem caminhar juntos

Por Ana Paula Souza - ana.pin.souza@usp.br
Quem poderia imaginar que Os Embalos de Sábado à Noite e Rocky – Um Lutador, poderiam ter algo em comum? No entanto, além dos recordes de bilheteria e da fama de seus protagonistas, o pesquisador Sergio Eduardo Alpendre de Oliveira, em sua dissertação de mestrado O mal-estar da sociedade americana e sua representação no cinema (1975-1978), apresentada na Escola de Comunicações e Artes (ECA) da USP, mostra que os dois filmes também se aproximam pelo fato de apresentarem elementos narrativos que retratam a melancolia da sociedade americana na segunda metade da década de 1970. Além disso, entre os principais resultados do estudo, também está o fato de que, ao contrário de que se costuma pensar, cinema comercial e qualidade artística são conceitos que podem, sim, andar lado a lado.
A melancolia escondida
Sob a orientação do professor Eduardo Victorio Morettin, Alpendre analisou as duas obras por mais de dois anos. Ao investigar Os Embalos de Sábado à Noite, filme em que John Travolta viveu o jovem Tony Manero, personagem que se tornou um ícone da era das discotecas, o pesquisador revela que o fenômeno disco, com sua febre de alegria, escondia, na verdade, uma melancolia profunda existente na época. Esse sentimento estava relacionado, entre outros motivos, a diversos eventos que ocorreram nos anos 1970, entre os quais a Guerra do Vietnã, a Crise do Petróleo e o Caso Watergate, o qual resultou na renúncia do presidente Richard Nixon.

Essa melancolia também está presente no caso de Rocky – Um Lutador, que conta a história do boxeador Rocky Balboa. O estudo mostra que o filme, vencedor do Oscar nas categorias de Melhor Filme, Melhor Diretor e Melhor Edição, foi muito mais do que um veículo para o ator Sylvester Stallone. Segundo o pesquisador, a obra, além de também trazer elementos relacionados à melancolia da década de 1970, apresenta também uma alta qualidade artística, servindo como um documento histórico de uma época.
Cinema Comercial versus Qualidade Artística

Segundo Alpendre, na época em que os dois filmes foram lançados, o cinema comercial frequentemente tinha valor artístico, algo que o pesquisador afirma ser raro na atualidade. E as duas películas trazem mais uma curiosidade: apesar do sucesso de público, Alpendre conta que os filmes foram produzidos com um orçamento modesto e que não foram elaborados por diretores conhecidos. “É importante destacar que os dois fazem parte de um cinema que não é autoral, feito por diretores pouco celebrados por críticos e cinéfilos, mas que foram feitos em uma época em que o cinema autoral teve, como nunca antes, algum espaço na indústria de cinema americana”, conta o pesquisador. “É preciso chamar a atenção para a qualidade desses filmes, e para algumas injustiças na apreciação que tiveram e ainda têm”.


Para a elaboração da pesquisa, Alpendre assistiu não apenas ao dois filmes, mas também à outras produções da Nova Hollywood, período compreendido entre o começo da década de 1960 e da década de 1980. Entre as outras obras analisadas, estão filmes como Bonnie & Clyde – Uma Rajada de BalasO Poderoso Chefão e Apocalypse Now. O estudo também envolveu a leitura de uma longa bibliografia, na qual se destacam os livros Le Cinéma Americain des Années 70, de Jean-Baptiste Thoret, e Hollywood from Vietnam to Reagan… and Beyond, de Robin Wood, sem tradução para o português, mas considerados por Alpendre como obrigatórios para quem quiser entender o cinema americano do período.

ALTERAÇÕES CLIMÁTICAS EM TERESINA-PI DECORRENTES DA URBANIZAÇÃO E SUPRESSÃO DE ÁREAS VERDES


Resumo da Autora: SÔNIA MARIA RIBEIRO FEITOSA

A urbanização é um fenômeno decorrente do crescimento populacional que acarreta, por meio de diferentes formas de uso do solo, mudanças no ambiente representadas, especialmente, pela supressão da vegetação, gerando fatores que alteram o comportamento dos elementos meteorológicos e modificam o clima. Teresina, nas últimas três décadas, passou por transformações no seu espaço físico, com o elevado crescimento demográfico entre 1970 e 2009, resultando em expansão de áreas construídas em detrimento das áreas verdes. 

O objetivo geral deste trabalho é analisar as alterações na temperatura média do ar, temperatura mínima do ar, temperatura máxima do ar, umidade relativa do ar e precipitação pluviométrica ocorridas na dinâmica espacial e temporal do clima provocadas pela expansão urbana e supressão da vegetação entre 1977 e 2009. Os objetivos específicos são identificar o nível de 
urbanização e as áreas arborizadas, relacionando-as com a tendência dos elementos meteorológicos, nos períodos de 1977 a 1991 e de 1992 a 2009. Foi utilizada a técnica de sensoriamento remoto para quantificar a vegetação e área urbanizada e estimar a temperatura da superfície do solo, por meio da composição do campo termal da superfície. 


Para validação dos resultados, os dados meteorológicos foram submetidos à análise estatística (teste “t”, ANOVA, teste de Mann-Kendall). Os resultados indicaram temperaturas anuais abaixo da média em 1985, sendo 1983 e 1998, os anos mais quentes da série. Maiores aumentos foram observados de agosto a novembro, tendo outubro como o mês que apresenta maior média de temperatura do ar. De 1992 a 2009, quando a cidade já havia perdido parte da vegetação, a temperatura média do ar e a temperatura mínima do ar apresentaram-se mais elevadas que o período de 1977 a 1991, não sendo verificada mudança no comportamento da temperatura máxima do ar, umidade relativa do ar e precipitação pluviométrica. O aumento da temperatura 
mínima do ar pode estar relacionado com evolução urbana e redução de áreas verdes, e contribui para o aumento da temperatura média do ar. 

Futebol foi refém de interesses entre FIFA e Comitê Olímpico

Por Antonio Carlos Quinto - acquinto@usp.br

Interesses econômicos e ideológicos, e uma disputa de poder entre o Comitê Olímpico Internacional (COI) e a Federação Internacional de Futebol Associado (FIFA), podem ser apontados como fatores fundamentais para a criação da Copa do Mundo. Afinal, o torneio que acontecerá este ano no Brasil, teve sua primeira edição em 1930, no Uruguai, como resultado de uma disputa pelo controle do futebol entre as duas entidades.
“Uma das principais discussões entre FIFA e COI surge em relação ao amadorismo no esporte”, conta o professor de educação física Sérgio Settani Giglio, que defendeu na Escola de Educação Física e Esportes (EEFE) da USP a tese de doutorado COI x FIFA: a história política do futebol nos jogos olímpicos.

Segundo ele, o objetivo inicial da pesquisa era entrevistar atletas brasileiros que participaram de edições dos jogos olímpicos, na modalidade futebol. “Busquei jogadores para saber de suas dificuldades, suas histórias e trajetórias, os que ficaram famosos e os desconhecidos que participaram dos Jogos Olímpicos entre os anos de 1952 e 2008”, conta. A ideia era traçar um perfil destes atletas para compor um estudo maior, coordenado pela professora Kátia Rubio, da EEFE, sua orientadora no doutorado.

No entanto, durante as entrevistas, que foram cerca de 90 com os atletas do futebol, Giglio percebeu um traço comum. “Muitos falaram da condição de ‘amadores’ como sendo um empecilho para ter um contrato com um clube profissional”, conta. Foi quando a questão da definição de “ser amador” lhe chamou a atenção, o que o fez mudar os rumos do estudo.
Embate histórico

Na busca de mais informações sobre a questão, o pesquisador consultou boletins olímpicos do COI. E já no primeiro, datado de 1894, quando da formação da entidade, Giglio encontrou as primeiras discussões sobre o que é ser ou não amador. Além de documentos da época, o pesquisador selecionou para seu doutorado 9 entrevistas, sendo 8 de atletas e 1 com João Havelange, ex-presidente da Confederação Brasileira de Desportos (CBD) e da FIFA.

Na definição do COI, segundo o pesquisador, o futebol deveria ter a participação de jogadores amadores. “O requisito favorecia a prática do esporte pela aristocracia, e os jogadores não recebiam nenhum tipo de recompensa”, lembra Giglio. Porém, na década de 1920, o futebol ganhava corpo, principalmente com a implantação do profissionalismo de clubes e com a participação de trabalhadores. “De outro lado, a FIFA era favorável ao pagamento dos jogadores, mesmo que pelo tempo de afastamento que durassem os jogos. Nas entrevistas, alguns jogadores relataram a prática dos ‘contratos de gaveta’, em que assinavam um documento de compromisso de profissionalização após a disputa da olimpíada”.

Mas o futebol já se mostrava altamente lucrativo. “Esse embate levou a um rompimento, em 1928, e fez com que a FIFA organizasse, em 1930, a primeira Copa do Mundo, que reuniu jogadores profissionais e amadores”, lembra o pesquisador. “De lá para cá, alguns acordos foram estabelecidos no decorrer do tempo, como a idade limite de 23 anos para o jogador disputar a olimpíada, sendo a restrição mais recente”, descreve. A tensão entre as entidades já não é grande, visto que a FIFA participa da organização do futebol no COI. “Mas fica claro o embate político financeiro e o controle da FIFA no futebol. A entidade criou torneios sub-20 e sub-17 como forma de alimentar nos atletas o desejo de se disputar uma Copa”, analisa o pesquisador.

terça-feira, 25 de fevereiro de 2014

Pesquisadores brasileiros desenvolvem modelo sobre a origem da água na Terra

Por Elton Alisson, de Chicheley, Inglaterra
Agência FAPESP – Pesquisadores da Universidade Estadual Paulista (Unesp), campus de Guaratinguetá, em colaboração com colegas da Universidade Tecnológica Federal do Paraná (UTFPR) e do Instituto de Astrobiologia da agência espacial norte-americana (Nasa), desenvolveram um modelo mais preciso para determinar a origem da água e da vida na Terra.
Realizado no âmbito do projeto de pesquisa “Dinâmica orbital de pequenos objetos”, apoiado pela FAPESP, o modelo foi descrito em um artigo publicado no The Astrophysical Journal, da Sociedade Americana de Astronomia, e apresentado nesta segunda-feira (24/02) noUK-Brazil-Chile Frontiers of Science.
Organizado pela Royal Society, do Reino Unido, em conjunto com a FAPESP e as Academias Brasileira e Chilena de Ciências, o evento ocorre até quarta-feira (26/02) em uma propriedade da Royal Society em Chicheley, vilarejo do condado de Buckinghamshire, no sul da Inglaterra. E tem como objetivo fomentar a colaboração científica e interdisciplinar entre jovens pesquisadores brasileiros, chilenos e do Reino Unido em áreas de fronteira do conhecimento.
“Desenvolvemos um modelo em que analisamos todas as possíveis fontes espaciais de água e estipulamos qual seria a provável contribuição de cada uma delas na quantidade total de água existente hoje na Terra”, disse à Agência FAPESP Othon Cabo Winter, pesquisador do Grupo de Dinâmica Orbital & Planetologia da Unesp de Guaratinguetá e coordenador do estudo.
De acordo com Winter, até recentemente se acreditava que os cometas, ao colidir com a Terra durante a formação do Sistema Solar, haviam trazido a maior parte da água existente hoje no planeta.
Simulações computacionais da quantidade de água que esses objetos celestes compostos de gelo podem ter fornecido para a Terra – baseadas em medições da quantidade de deutério (o hidrogênio mais pesado) da água deles – revelaram, no entanto, que os cometas não foram as maiores fontes. E que eles não poderiam ter contribuído com uma fração tão significativa de água para o planeta como se estimava, explicou Winter.
“Pelas simulações, a contribuição dos cometas no fornecimento de água para a Terra seria de, no máximo, 30%”, disse o pesquisador. “Mais do que isso é pouco provável”, afirmou Winter.
No início dos anos 2000, segundo o pesquisador, foram publicados estudos internacionais que sugeriram que, além dos cometas, outros objetos planetesimais (que deram origem aos planetas), como asteroides carbonáceos – o tipo mais abundante de asteroides no Sistema Solar –, também poderiam ter água e fornecê-la para a Terra por meio da interação com planetas e embriões planetários durante a formação do Sistema Solar.
A hipótese foi confirmada nos últimos anos por observações de asteroides feitas a partir da Terra e de meteoritos (pedaços de asteroides) que entraram na atmosfera terrestre.
Outras possíveis fontes de água da Terra, também propostas nos últimos anos, são grãos de silicato (poeira) da nebulosa solar (nuvem de gás e poeira do cosmos relacionada diretamente com a origem do Sistema Solar), que encapsularam moléculas de água durante o estágio inicial de formação do Sistema Solar.
Essa “nova” fonte, no entanto, ainda não tinha sido validada e incluída nos modelos de distribuição de água por meio de corpos celestes primordiais, como os asteroides e os cometas.
“Incluímos esses grãos de silicato da nebulosa solar, com os cometas e asteroides, no modelo que desenvolvemos e avaliamos qual a contribuição de cada uma dessas fontes para a quantidade de água que chegou à Terra”, detalhou Winter.
Simulações computacionais
Segundo Winter, a água de cada uma dessas possíveis fontes para a Terra possui uma quantidade diferente de deutério – que pode ser utilizado como um indicador de origem da água.
O pesquisador e seus colaboradores conseguiram estimar a contribuição de cada um desses objetos celestes com base nesse “certificado de origem” da água encontrada na Terra, por meio de simulações computacionais. Além disso, conseguiram determinar qual o volume de água que cada uma dessas fontes forneceu e em que momento fizeram isso durante a formação do planeta terrestre, uma vez que a contribuição de cada uma delas foi feita em períodos diferentes.
“A maior parte veio dos asteroides, que deram uma contribuição de mais de 50%. Uma pequena parcela veio da nebulosa solar, com 20% de participação, e os 30% restantes dos cometas”, detalhou Winter.
Os resultados das simulações feitas pelos pesquisadores também indicaram que grandes planetas, com grandes quantidades de água, como a Terra, podem ter sido formados entre 0,5 e 1,5 unidade astronômica – entre 75 milhões e 225 milhões de quilômetros de distância do Sol.
“Essa faixa de distância do Sol, que nós chamamos de ‘zona habitável’, permite ter água no estado líquido”, disse Winter. “Fora dessa região é muito frio e a água ficaria congelada. Já mais próximo do Sol é muito quente e a água seria vaporizada”, explicou.
As simulações também sugeriram que o modelo desenvolvido parece mais eficiente para determinar a quantidade e o momento da entrega de água para a Terra por esses corpos planetários do que modelos que indicam que a água foi transferida meramente por meio de meras colisões entre corpos celestes em início de formação (protoplanetários), afirmou Winter.
“As informações parciais da possível contribuição de cada uma dessas fontes já existiam. Mas, até então, não tinham sido reunidas em um único modelo e não havia sido determinado quando e quanto contribuíram para a formação da massa de água na Terra”, disse.
Importância de corpos menores
Winter destacou em sua palestra na Inglaterra a importância da exploração de corpos menores, como asteroides e cometas, pelas missões espaciais. A última missão espacial para a exploração de asteroides, realizada pela agência espacial japonesa (Jaxa, na sigla em inglês) com a sonda Hayabusa para tirar amostras do asteroide Itokawa, resultou em diversos artigos em revistas como a Science e a Nature.
O país oriental planeja lançar este ano a sonda espacial Hayabusa-2, para extrair amostras do subsolo do asteroide “1999JU3” em 2018 e trazê-las para a Terra em 2020.

Por sua vez a agência espacial europeia (ESA) mantém no espaço a sonda Rosetta, que deve ser o primeiro objeto a pousar em um cometa, o 67P/Churyumov-Gerasimenko. E a Nasa também pretende realizar uma missão para captura de asteroide próximo da Terra.
Já o Brasil pretende desenvolver e lançar em 2017 a sonda espacial Áster, para orbitar em 2019 um asteroide triplo, o 2001-SN263, formado por um objeto central, com 2,8 quilômetros de diâmetro, e outros dois menores com 1,1 quilômetro e 400 metros de diâmetro.
“Nunca foi realizada uma missão para um sistema de asteroides desse tipo”, disse Winter. “Todas as missões foram feitas para observar um único asteroide”, afirmou.
Ao explorar asteroides e cometas, em missões como essas, é possível explicar melhor as condições de formação da Terra e a aparição da vida no planeta, explicou o pesquisador.
“Como são corpos celestes primordiais, os cometas e os asteroidespreservam informações sobre como era o Sistema Solar durante seu estágio de formação”, disse Winter.
Um dos desafios para disponibilizar esses preciosos materiais geológicos para estudos científicos, contudo, é não apenas coletar, mas realizar uma curadoria cuidadosa das amostras, assegurando a gravação e o arquivamento de diversas informações relacionados a cada uma das espécimes, tais como as circunstâncias nas quais foram coletadas e os resultados de análises, destacou Caroline Smith, curadora da coleção de meteoritos do Museu de História Natural de Londres, na palestra que proferiu após Winter.
De acordo com Smith, os meteoritos começaram a ser estudados cientificamente no final do século XVIII por cientistas como o físico alemão Ernest Chladni (1756-1827).
O Museu Britânico começou a sua coleção de meteoritos 50 anos após ser fundado, em 1753, contou Smith.
Desde então, com as amostras colhidas por missões realizadas por agências espaciais de diversos países, as coleções de instituições, como a do Museu de História Natural de Londres, têm se expandido muito rapidamente.
“Em 1961 havia, aproximadamente, 2.100 meteoritos conhecidos, dos quais 40% possuíam o registro do momento e do lugar onde caíram”, disse Smith. “Em contrapartida, hoje, há 48 mil meteoritos conhecidos e apenas 2,4% têm o registro da queda”, contou Smith.
O número cada vez maior de amostras de meteoritos coletadas e os estudos científicos realizados a partir deles têm imposto grandes desafios às equipes de curadoria desses objetos dos museus, avaliou a pesquisadora.
“Alguns dos nossos atuais dilemas é manter o acesso à coleção e, ao mesmo tempo, preservar os meteoritos para as futuras gerações”, afirmou.
O artigo A compound model for the origin of Earths’s water (doi:10.1088/0004-637X/767/1/54), de Winter e outros, pode ser lido no The Astrophysical Journal emiopscience.iop.org/0004-637X/767/1/54/article

terça-feira, 18 de fevereiro de 2014

Cientistas avaliam novos materiais para enxertos ósseos

Por Valéria Dias - valdias@usp.br
Estudo realizado no programa de Pós-Graduação Interunidades em Bioengenharia da USP traz contribuições para o aperfeiçoamento dos enxertos ósseos. O médico ortopedista Helton Hiroshi Hirata analisou se as matrizes de colágeno extraído das membranas que revestem o coração (pericárdio) e o intestino (serosa) bovinos poderia ser utilizada como enxerto ósseo.
Os resultados da pesquisa realizada em animais indicaram que houve biocompatibilidade das matrizes, ou seja, não houve rejeição; entretanto, não foi verificada a osteointegração do material e a regeneração óssea foi insuficiente na matriz pesquisada. “Percebemos que o osso dos animais cresceu com os enxertos, mas não o suficiente para considerar que houve uma osteointegração satisfatória”, diz Hirata.
O ortopedista explica que, atualmente, os materiais utilizados para a realização dos enxertos são a base de hidroxiapatita e apresentam custo mais elevado. “Por isso, existe a necessidade de realizar pesquisas que busquem materiais alternativos. E um dos materiais utilizados nesses estudos é o pericárdio e a serosa de intestino bovino por serem ricos em colágeno [90% da constituição orgânica do osso é de colágeno] e também pela grande disponibilidade desses animais no Brasil devido à pecuária.”
As matrizes de colágeno foram desenvolvidas no Instituto de Química de São Carlos (IQSC) da USP, pelas professoras Ana Maria de Guzzi Plepis e Virgínia da Conceição Amaro Martins. O material foi quimicamente modificado, até se transformar em um substrato, com textura semelhante a de uma esponja, porém mais firme.

Testes
No estudo foram utilizadas 30 ratas, com 3 meses de idade e peso médio de 300 gramas. Metade foi submetida a falha óssea circular no osso parietal esquerdo. Na outra metade, foi feita a retirada dos ovários e, após 4 meses, os animais foram submetidos a mesma falha craniana. “A ideia do projeto era simular um ambiente ósseo patológico, a osteoporose, e verificar a viabilidade do enxerto sintético biológico em substituição ao auto enxerto. Para tanto, foi realizada a retirada dos ovários das ratas levando à diminuição do estrógeno e provocando a osteoporose.”
Tanto as ratas ovarioectomizadas como as sadias foram separadas em 3 grupos, para a aplicação de 3 tratamentos distintos: sem uso das matrizes de colágeno; uso das matrizes de colágeno derivadas do pericárdio; e uso das matrizes de colágeno derivadas da serosa do intestino.
Após 8 semanas da cirurgia craniana, os animais foram eutanaziados e as calotas cranianas passaram por avaliação macro e microscópica, radiológica e histomorfométrica, para verificar a presença de alguma alteração patológica ou qualquer outra condição anormal que pudesse sugerir rejeição às matrizes utilizadas.
Resultados
Entre outros resultados, estão: apesar de pequeno, o crescimento ósseo na presença das matrizes de colágeno foi 3 vezes maior nas ratas sadias (não ovariectomizadas) e 5 vezes maior nas ratas ovariectomizadas, em comparação com as ratas sem matrizes. Não houve diferença quanto à capacidade osteogênica (formação de ossos) entre as matrizes estudadas. “Com isso, concluímos que apesar da insatisfatória capacidade osteogênica, as matrizes demonstraram biocompatibilidade”, conclui o médico.
A pesquisa de mestrado Viabilidade das matrizes de colágeno derivadas do pericárdio e da serosa de intestino bovino no reparo dos defeitos cranianos em ratas ovarioectomizadas foi apresentada no último dia 13 de dezembro sob a orientação do professor Marcelo Rodrigues da Cunha, do Programa de  Pós-Graduação Interunidades Bioengenharia.
O Programa envolve a Escola de Engenharia de São Carlos (EESC), o Instituto de Química de São Carlos (IQSC) e a Faculdade de Medicina de Ribeirão Preto (FMRP).
Foto: Wikimedia

quarta-feira, 5 de fevereiro de 2014

Modelo matemático ajuda gestores da área de transportes

Da Assessoria de Imprensa da FEARP




Definir o tipo de transporte de carga (rodoviário, hidroviário, ferroviário ou aéreo) mais adequado à realidade de cada região pode reduzir gastos, tempo de viagem e impacto ao meio ambiente. Para dar respostas a essa questão, pesquisadores da Faculdade de Economia, Administração e Contabilidade de Ribeirão Preto (FEARP) da USP desenvolveram modelo matemático capaz de fornecer informações que auxiliam a tomada de decisão de gestores públicos quanto à escolha do transporte a ser adotado em determinada região.

Segundo os pesquisadores, hoje os investimentos em infraestrutura de transportes brasileiros são guiados “pelas chamadas metodologias de análise unidimensional”. Esses métodos avaliam, separadamente, o custo de investimento de determinado projeto, comparando-o a seus possíveis retornos financeiros ou aos impactos ambientais.
A proposta foi apresentada na dissertação de mestrado Proposta de modelo para priorização de investimentos em infraestrutura de transporte de cargas: abordagem multicritério para problemas de fluxos em rede, desenvolvida por Samir Kazan, no Programa de Pós-Graduação em Administração de Organizações da FEARP, sob a orientação do professor Marcio Mattos Borges de Oliveira.
O modelo proposto por Kazan, testado na região Norte do Brasil, inova ao permitir avaliar diferentes variáveis com uma única ferramenta. Não apenas contempla aspectos monetários e ambientais, mas permite identificar a melhor combinação de projetos em infraestrutura de transporte para alcançar o melhor resultado no sistema de transportes. No Norte, por exemplo, a melhor relação custo benefício em transporte de carga seria obtida com os modais hidroviário e ferroviário.
A ferramenta contempla e avalia aspectos como custo do frete, do investimento, tempo de viagem, nível de emissão de dióxido de carbono (CO2), impacto em área de desmatamento e até o número de interseções dos projetos em análise com áreas de proteção ambiental. Assim, o gestor terá em mãos dados que indicarão quais projetos de infraestrutura devem ser implantados para resolver os problemas enfrentados pelo sistema de transportes de sua região. Isso, considerando ainda o fluxo de produtos e suas restrições, no que se refere a recursos, para implantação.
Transporte rodoviário é o menos indicado para a região Norte
A região Norte do Brasil foi escolhida para os testes com a nova ferramenta. Para tanto, os pesquisadores usaram dados do Plano Nacional de Logística e Transportes e os projetos de investimentos que deveriam ser priorizados para esta região.
Os resultados, segundo Kazan, mostraram que o modelo matemático da FEARP se mostrou “muito mais consistente do que a habitual análise unidimensional tradicional”. O pesquisador conta que conseguiram identificar no modelo potencialidade para soluções inexistente no método atual.
Kazan explica que testaram 20 versões do modelo matemático até obter a mais adequada. Para cada uma delas, foram utilizados cenários diferentes no que se refere à disponibilidade de recursos para implantação e aos pesos dos critérios de avaliação propostos. Testaram, por exemplo, o custo do frete em detrimento do tempo de viagem ou da relevância dos impactos ambientais, quando da implantação dos projetos.
Como resposta à aplicação desse modelo, os pesquisadores encontraram que, para a região Norte, os modais hidroviário e ferroviário são mais indicados quando se deseja reduzir custos com frete, nível de emissão de CO2 e área de desmatamento. Já o rodoviário traz melhores resultados em relação ao tempo de viagem.
De modo geral, entretanto, o estudo aponta no sentido da redução da importância do transporte rodoviário na região Norte. “Essa atual concentração no modal rodoviário diminui não necessariamente com a redução do fluxo de produtos pelo modal rodoviário, mas com o crescimento no volume transportado pelos demais modais”, explica o pesquisador.
Apesar dos estudos terem sido realizados com base no contexto da região Norte, a ferramenta pode ser utilizada para avaliar qual a melhor alternativa para o transporte de cargas em qualquer região do Brasil.