Neste trabalho, estaremos interessados em estudar o chamado Método Proximal Gradiente, conhecido também na literatura relacionada como forward-backward splitting (FBS). Tal método busca resolver problemas de otimização convexa não-suaves onde a função objetivo pode ser decomposta na soma de uma função convexa diferenciável e uma convexa não-suave. Em geral, na literatura relacionada a hipótese de Lipschitz continuidade do gradiente da componente diferenciável é utilizada a fim de garantir a convergência do método para uma solução do problema. No presente trabalho, nosso foco principal é estudar variações do método que se utilizem de estratégias de buscas lineares que permitam garantir a convergência da sequência gerada, sem a suposição de Lipschitz continuidade. Em resumo, analisamos três procedimentos de buscas lineares, sem qualquer suposição de Lipschitz continuidade no gradiente, no qual um dos procedimentos estudados origina dois métodos, sendo um deles uma versão acelerada do outro. Durante o trabalho as propriedades, vantagens e desvantagens de tais procedimentos são analisados, bem como a análise de convergência da sequência gerada pelo Método Proximal Gradiente com tais buscas. Adicionalmente, também é feito um estudo sobre a complexidade dos métodos.